KR102687766B1 - Sorting devices, screening methods and screening programs, and computer-readable recording media or storage devices - Google Patents
Sorting devices, screening methods and screening programs, and computer-readable recording media or storage devices Download PDFInfo
- Publication number
- KR102687766B1 KR102687766B1 KR1020207018659A KR20207018659A KR102687766B1 KR 102687766 B1 KR102687766 B1 KR 102687766B1 KR 1020207018659 A KR1020207018659 A KR 1020207018659A KR 20207018659 A KR20207018659 A KR 20207018659A KR 102687766 B1 KR102687766 B1 KR 102687766B1
- Authority
- KR
- South Korea
- Prior art keywords
- learning
- unit
- selection
- data
- type
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 38
- 238000012216 screening Methods 0.000 title claims description 6
- 238000003860 storage Methods 0.000 title description 18
- 239000000203 mixture Substances 0.000 claims abstract description 90
- 238000003384 imaging method Methods 0.000 claims description 18
- 230000006870 function Effects 0.000 claims description 17
- 238000010187 selection method Methods 0.000 claims description 12
- 238000002347 injection Methods 0.000 abstract description 25
- 239000007924 injection Substances 0.000 abstract description 25
- 239000000243 solution Substances 0.000 abstract 1
- 238000010586 diagram Methods 0.000 description 25
- 238000013473 artificial intelligence Methods 0.000 description 15
- 230000015572 biosynthetic process Effects 0.000 description 8
- 238000003786 synthesis reaction Methods 0.000 description 8
- 238000000605 extraction Methods 0.000 description 7
- 238000003825 pressing Methods 0.000 description 6
- 238000004064 recycling Methods 0.000 description 6
- 238000007664 blowing Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- RYGMFSIKBFXOCR-UHFFFAOYSA-N Copper Chemical compound [Cu] RYGMFSIKBFXOCR-UHFFFAOYSA-N 0.000 description 3
- 229910052782 aluminium Inorganic materials 0.000 description 3
- XAGFODPZIPBFFR-UHFFFAOYSA-N aluminium Chemical compound [Al] XAGFODPZIPBFFR-UHFFFAOYSA-N 0.000 description 3
- 229910052802 copper Inorganic materials 0.000 description 3
- 239000010949 copper Substances 0.000 description 3
- 230000015654 memory Effects 0.000 description 3
- 229910052751 metal Inorganic materials 0.000 description 3
- 239000002184 metal Substances 0.000 description 3
- 239000004033 plastic Substances 0.000 description 3
- 229920003023 plastic Polymers 0.000 description 3
- 238000012546 transfer Methods 0.000 description 3
- 229910001369 Brass Inorganic materials 0.000 description 2
- 239000010951 brass Substances 0.000 description 2
- PCHJSUWPFVWCPO-UHFFFAOYSA-N gold Chemical compound [Au] PCHJSUWPFVWCPO-UHFFFAOYSA-N 0.000 description 2
- 239000010931 gold Substances 0.000 description 2
- 229910052737 gold Inorganic materials 0.000 description 2
- 239000012535 impurity Substances 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 238000011017 operating method Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 239000000123 paper Substances 0.000 description 2
- 238000002360 preparation method Methods 0.000 description 2
- 239000002994 raw material Substances 0.000 description 2
- 238000011084 recovery Methods 0.000 description 2
- 238000005507 spraying Methods 0.000 description 2
- 239000000126 substance Substances 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 239000002699 waste material Substances 0.000 description 2
- BQCADISMDOOEFD-UHFFFAOYSA-N Silver Chemical compound [Ag] BQCADISMDOOEFD-UHFFFAOYSA-N 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000005520 cutting process Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000002950 deficient Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000007717 exclusion Effects 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 239000010893 paper waste Substances 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 229910052709 silver Inorganic materials 0.000 description 1
- 239000004332 silver Substances 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 239000007921 spray Substances 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B07—SEPARATING SOLIDS FROM SOLIDS; SORTING
- B07C—POSTAL SORTING; SORTING INDIVIDUAL ARTICLES, OR BULK MATERIAL FIT TO BE SORTED PIECE-MEAL, e.g. BY PICKING
- B07C5/00—Sorting according to a characteristic or feature of the articles or material being sorted, e.g. by control effected by devices which detect or measure such characteristic or feature; Sorting by manually actuated devices, e.g. switches
- B07C5/34—Sorting according to other particular properties
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B07—SEPARATING SOLIDS FROM SOLIDS; SORTING
- B07C—POSTAL SORTING; SORTING INDIVIDUAL ARTICLES, OR BULK MATERIAL FIT TO BE SORTED PIECE-MEAL, e.g. BY PICKING
- B07C5/00—Sorting according to a characteristic or feature of the articles or material being sorted, e.g. by control effected by devices which detect or measure such characteristic or feature; Sorting by manually actuated devices, e.g. switches
- B07C5/36—Sorting apparatus characterised by the means used for distribution
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01V—GEOPHYSICS; GRAVITATIONAL MEASUREMENTS; DETECTING MASSES OR OBJECTS; TAGS
- G01V8/00—Prospecting or detecting by optical means
- G01V8/10—Detecting, e.g. by using light barriers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Software Systems (AREA)
- Geophysics (AREA)
- General Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
- Sorting Of Articles (AREA)
Abstract
유저가, 선별 정밀도를 간단하게 설정ㆍ변경할 수 있도록 한다.
(해결 수단) 라인 센서 카메라 (11) 와 라인 센서 카메라 (11) 에 의해 취득된 종별 물체의 데이터로부터 학습 데이터 (LD) 를 작성하는 학습 데이터 작성부 (122) 와, 학습 데이터 (LD) 를 사용하여 혼합물 (MO) 을 종류별로 분별하고, 종별 물체로 하는 방법을 학습하고, 그 학습에 의해 얻어진 지식 및 경험을 데이터화한 학습 모델 (GM) 을 작성하는 학습부 (123) 와, 선별 대상물 (SO) 의 종류를 선택하는 선별 대상 선택부 (124) 와, 학습 모델 (GM) 에 기초하여, 라인 센서 카메라 (11) 에 의해 취득한 혼합물 (MO) 의 데이터로부터, 인식률 (RR) 을 산출하고, 인식률 (RR) 에 기초하여, 선별 대상물 (SO) 의 유무 및 위치를 판단하는 판단부 (125) 와, 판단부 (125) 의 판단 결과 및 인식률 (RR) 에 대해 형성되는 임계값에 기초하여 혼합물 (MO) 중에서 선별 대상물 (SO) 을 선별하는 에어 분사 노즐 (14) 을 구비한다.Allows users to easily set and change the sorting accuracy.
(Solution) Using the line sensor camera 11 and a learning data creation unit 122 that creates learning data (LD) from the data of each type of object acquired by the line sensor camera 11, and the learning data (LD). A learning unit 123 that learns how to classify a mixture (MO) by type and make it into an object by type, and creates a learning model (GM) that converts the knowledge and experience obtained through the learning into data, and a selection object (SO) ) A recognition rate (RR) is calculated from the selection target selection unit 124 that selects the type, and the data of the mixture (MO) acquired by the line sensor camera 11 based on the learning model (GM), and the recognition rate (RR) is calculated. Based on (RR), a judgment unit 125 that determines the presence and location of the selection object (SO), and a judgment result of the judgment unit 125 and a threshold formed for the recognition rate (RR), the mixture ( It is provided with an air injection nozzle (14) for sorting the sorting object (SO) from the MO).
Description
본 발명은 복수 종류의 물체로 구성되는 혼합물 중에서 선별 대상물을 선별하는 선별 장치, 선별 방법 및 선별 프로그램 그리고 컴퓨터로 판독 가능한 기록 매체 또는 기억한 기기에 관한 것이다.The present invention relates to a sorting device, a sorting method and a sorting program, and a computer-readable recording medium or storage device for sorting out a sorting object from a mixture consisting of a plurality of types of objects.
최근, 폐기물 등을 재자원화하여, 새로운 제품의 원료로서 이용하는 리사이클은, 환경 보호의 관점이나 기업 이미지의 향상 등의 목적에서 많은 기업에 의해 실시되고 있다.Recently, recycling of waste materials, etc. into resources and use as raw materials for new products has been implemented by many companies from the viewpoint of environmental protection and for purposes such as improving corporate image.
리사이클 분야는 다방면에 걸쳐 있는데, 예를 들어, 고지 (古紙) 를 리사이클하여 재생지를 생산하는 분야에서는, 고지 중에, 예를 들어, 라미네이트 등의 플라스틱이 혼입되면, 종이의 순도가 떨어진다는 불순물의 문제가 있다. 또, 유해 물질이 혼입되면, 이 유해 물질을 널리 확산시켜 버리게 된다. 이 때문에, 리사이클 전에, 원료로서 사용하는 물체와 불순물을 선별하는 공정이 필요해진다. 또, 예를 들어 백색의 종이와 착색된 종이를 선별하는 것과 같이, 리사이클의 용도에 따라 자유롭게 선별 대상물을 선별할 수 있을 것이 요구되고 있다.The recycling field covers many fields. For example, in the field of recycling old paper to produce recycled paper, there is a problem of impurities that the purity of the paper decreases when plastics such as laminate are mixed into the waste paper. There is. Additionally, if harmful substances are mixed, these harmful substances will spread widely. For this reason, before recycling, a process of selecting the objects used as raw materials and impurities is necessary. In addition, it is required to be able to freely sort the sorting object according to the purpose of recycling, for example, sorting white paper and colored paper.
또, 리사이클에 상관없이, 제품 제조시에 있어서, 양품과 불량품을 선별할 필요가 있기 때문에, 물체를 2 이상으로 선별하는 기술은, 제조업에 있어서 필요 불가결한 기술 중 하나라고 할 수 있다. 이러한 종류의 물체를 2 이상의 종류로 선별하는 기술은, 예를 들어, 특허문헌 1 및 특허문헌 2 에 개시되어 있다.In addition, regardless of recycling, since it is necessary to sort good products from defective products when manufacturing products, the technology for sorting objects into two or more can be said to be one of the essential technologies in the manufacturing industry. Techniques for sorting this type of object into two or more types are disclosed in, for example,
특허문헌 1 에는, 광원과 광 센서로 이루어지는 검지 수단을 구비하고, 반사광의 휘도에 기초하여 물체를 선별하는 선별 장치에 관한 기술이 개시되어 있다.
또, 특허문헌 2 에는, 중력 센서와, 촬상 장치로서 RGB 카메라, X 선 카메라, 근적외선 카메라, 3D 카메라를 구비하고, 인공 지능에 의해 물체를 자동 선별하는 선별 장치에 관한 기술이 개시되어 있다.Additionally,
그러나, 특허문헌 1 에 개시된 선별 장치는, 반사광의 휘도에 기초하여 물체를 선별하는 기준이나 알고리즘을 미리 설정해 둘 필요가 있고, 이들의 설정에 전문적인 지식이나 경험이 필요하기 때문에, 유저가 용이하게 설정이나 설정의 변경을 실시할 수 없었다.However, the sorting device disclosed in
또, 인공 지능을 이용한 특허문헌 2 에 개시된 선별 장치는, 전술한 바와 같은 설정은 필요 없기는 하지만, 미리 인공 지능에 선별하는 기준이나 방법을 학습시키는 공정이 필요하여, 유저가 용이하게 설정할 수 있는 양태로는 되어 있지 않았다.In addition, the sorting device disclosed in
이와 같이, 종래의 선별 장치나 선별 방법에서는, 선별 장치에 선별 대상물을 선별시키기 위한 설정을 실시하는 것이 용이하지 않기 때문에, 유저는, 미리 선별 대상물에 따른 설정이 이루어진 선별 장치를 제공받아 운전을 실시하고 있었다. 이 때문에, 혼합물 (폐기물 등) 이나 선별 대상물이 변경이 되거나 한 경우에, 유저가 설정을 변경하고 싶어도 용이하게 변경할 수 없다는 문제가 있었다.In this way, in the conventional sorting device or sorting method, it is not easy to set the sorting device to sort the sorting object, so the user is provided with a sorting device with settings according to the sorting object in advance and operates it. was doing For this reason, when the mixture (waste, etc.) or the object to be sorted is changed, there is a problem that the user cannot easily change the settings even if he or she wants to change them.
본 발명은, 종래의 이와 같은 문제점을 감안하여 이루어진 것이다. 본 발명의 목적의 하나는, 유저가 전문적인 기술이나 지식을 가지고 있지 않더라도, 선별 대상물을 선별하기 위한 설정을 용이하게 실시할 수 있는 선별 장치, 선별 방법 및 선별 프로그램 그리고 컴퓨터로 판독 가능한 기록 매체 또는 기억한 기기를 제공하는 것에 있다.The present invention was made in consideration of such problems in the prior art. One object of the present invention is to provide a sorting device, a sorting method, a sorting program, and a computer-readable recording medium or It is about providing a device that remembers.
본 발명의 제 1 측면에 관련된 선별 장치는, 복수 종류의 물체로 구성되는 혼합물 중에서 선별 대상물을 선별하는 선별 장치로서, 종류별로 분별된 상기 물체인 종별 물체 또는 상기 혼합물에 기초하는 데이터를 취득하는 데이터 취득부와, 상기 데이터 취득부에 의해 취득된 상기 종별 물체의 데이터로부터 학습 데이터를 작성하는 학습 데이터 작성부와, 상기 학습 데이터 작성부에 의해 작성된 학습 데이터를 사용하여 혼합물을 종류별로 분별하고, 종별 물체로 하는 방법을 학습하고, 그 학습에 의해 얻어진 지식 및 경험을 데이터화한 학습 모델을 작성하는 학습부와, 상기 종별 물체 중에서 상기 선별 대상물의 종류를 선택하는 선별 대상 선택부와, 상기 학습부에서 작성된 학습 모델에 기초하여, 상기 데이터 취득부에서 취득한 혼합물의 촬상 데이터로부터 상기 선별 대상 선택부에서 선택된 종류의 선별 대상물의 유무 및 위치를 판단하는 판단부와, 상기 판단부의 판단 결과에 기초하여 상기 혼합물 중에서 상기 선별 대상물을 선별하는 선별부와, 상기 각 부에 대해, 유저로부터의 조작을 받아 지시를 주는 조작부를 구비할 수 있다.A sorting device related to the first aspect of the present invention is a sorting device that selects an object to be sorted from a mixture consisting of a plurality of types of objects, and acquires data based on the type object or the mixture, which is the object classified by type. An acquisition unit, a learning data creation unit for creating learning data from the data of the object of the type acquired by the data acquisition unit, classifying the mixture into types using the learning data created by the learning data creation unit, and classifying the mixture into types. A learning unit that learns how to use an object and creates a learning model that converts the knowledge and experience obtained through the learning into data, a selection target selection unit that selects the type of the selection object from the types of objects, and the learning unit. Based on the created learning model, a determination unit that determines the presence or absence and location of the type of selection object selected in the selection object selection unit from the imaging data of the mixture acquired by the data acquisition unit, and the mixture based on the judgment result of the determination unit It may be provided with a selection unit that selects the selection object from among the selection units, and an operation unit that receives operations from the user and gives instructions to each unit.
상기 구성에 의하면, 인공 지능을 이용하여 혼합물의 촬상 데이터로부터 선별 대상물의 유무 및 위치를 판단할 수 있기 때문에, 물체를 선별하는 기준이나 알고리즘의 설정이 불필요하다. 또한, 각 부재에, 유저로부터의 조작을 받아 지시를 주는 조작부를 구비하기 때문에, 유저가, 용이하게 학습 모델을 작성할 수 있고, 인공 지능에 학습시키는 공정도 용이하게 실시할 수 있다.According to the above configuration, since the presence or absence and location of the object to be sorted can be determined from the imaging data of the mixture using artificial intelligence, there is no need to set standards or algorithms for sorting the object. Additionally, since each member is provided with an operation unit that receives operations from the user and gives instructions, the user can easily create a learning model, and the process of having artificial intelligence learn it can also be easily performed.
따라서, 본 발명에 의하면, 조작부를 사용하여 간단하게 조작할 수 있고, 번잡한 설정 작업의 대부분을 인공 지능이 실시하게 할 수 있기 때문에, 유저가 전문적인 기술이나 지식을 가지고 있지 않더라도, 선별 대상물을 선별하기 위한 설정을 용이하게 실시할 수 있다.Therefore, according to the present invention, it can be simply operated using the control panel and most of the complicated setting work can be performed by artificial intelligence, so even if the user does not have specialized skills or knowledge, the sorting object can be selected. Settings for selection can be easily performed.
또, 본 발명의 제 2 측면에 관련된 선별 장치는, 상기 조작부가, 상기 데이터 취득부에 데이터의 취득을 지시하는 데이터 취득 지시부와, 상기 학습 데이터 작성부에 상기 학습 데이터의 작성 개시를 지시하는 학습 데이터 작성 지시부와, 상기 학습부에 상기 학습 모델의 작성을 지시하는 학습 개시 지시부와, 상기 선별 대상 선택부에 상기 선별 대상물의 종류의 선택을 지시하는 선별 대상 선택 지시부와, 상기 판별부에 상기 선별 대상물의 유무 및 위치를 판단하게 하고, 상기 선별부에, 그 판단 결과에 기초하여 상기 혼합물 중에서 상기 선별 대상물을 선별하게 하는 운전 개시 지시부를 구비할 수 있다.In addition, the selection device related to the second aspect of the present invention includes a learning unit where the operation unit includes a data acquisition instruction unit instructing the data acquisition unit to acquire data, and a learning data creation unit instructing the learning data creation unit to start creating the learning data. A data creation instruction unit, a learning start instruction unit instructing the learning unit to create the learning model, a selection object selection instruction unit instructing the selection object selection unit to select a type of the selection object, and the selection unit in the determination unit. The operation start instruction unit may be provided to determine the presence and location of an object, and to select the selection object from the mixture based on the determination result in the selection unit.
게다가 또한, 본 발명의 제 3 측면에 관련된 선별 장치는, 상기 조작부가, 적어도 상기 데이터 취득 지시부, 학습 데이터 작성 지시부 및 학습 개시 지시부를 표시하는 학습 모드와, 적어도 상기 운전 개시 지시부를 표시하는 운전 모드를 포함하는 모드 전환 조작을 지시하는 모드 전환 지시부를 구비할 수 있다. 상기 구성에 의하면, 유저는, 학습 모드와 운전 모드라는 선별 장치의 동작 상황 중, 어느 동작 상황하에 있는지를 파악하면서, 작업을 실시할 수 있고, 학습 모드에 있어서의 설정 작업은, 설정에 관련된 지시부가 집약되어 있기 때문에 오조작을 방지하기 쉽다.Furthermore, the selection device according to the third aspect of the present invention has a learning mode in which the operation unit displays at least the data acquisition instruction section, the learning data creation instruction section, and the learning start instruction section, and a driving mode in which the operating section displays at least the driving start instruction section. It may be provided with a mode switching instruction unit that instructs a mode switching operation including. According to the above configuration, the user can perform work while determining which operating situation the selection device is in, namely the learning mode and the operating mode, and the setting work in the learning mode includes instructions related to the setting. Because the information is concentrated, it is easy to prevent erroneous operation.
게다가 또한, 본 발명의 제 4 측면에 관련된 선별 장치는, 상기 조작부가, 적어도 상기 데이터 취득 지시부, 학습 데이터 작성 지시부, 학습 개시 지시부, 선별 대상 선택 지시부 및 운전 개시 지시부를 한 화면에 표시할 수 있다. 상기 구성에 의하면, 학습 모드, 운전 모드와 같이 모드로서 구별되어 있지 않고, 설정에 관련된 지시부도 운전에 관련된 지시부도 한 화면에 표시되기 때문에, 학습 모드와 운전 모드의 모드의 전환 조작을 필요하지 않게 할 수 있다.Furthermore, in the selection device according to the fourth aspect of the present invention, the operation unit can display at least the data acquisition instruction unit, the learning data creation instruction unit, the learning start instruction section, the selection target selection instruction section, and the driving start instruction section on one screen. . According to the above configuration, there is no distinction between modes such as learning mode and driving mode, and both the setting-related indicator and the driving-related indicator are displayed on one screen, so there is no need to switch between the learning mode and the driving mode. can do.
게다가 또한, 본 발명의 제 5 측면에 관련된 선별 장치는, 상기 조작부가, 터치 패널이도록 구성할 수 있다. 상기 구성에 의하면, 유저가 간단하게 조작할 수 있다.Furthermore, the selection device according to the fifth aspect of the present invention can be configured so that the operation unit is a touch panel. According to the above configuration, the user can operate it easily.
게다가 또한, 본 발명의 제 6 측면에 관련된 선별 장치는, 상기 데이터 취득부가 가시 카메라를 구비하고, 상기 데이터 취득부에 의해 취득되는 데이터가 화상 데이터이도록 구성할 수 있다. 상기 구성에 의하면, 데이터 취득부가 가시 카메라를 구비하고, 데이터를 화상 데이터로서 취득할 수 있는 점에서, 선별 대상물을, 그 선별 대상물의 형태나 위치, 크기, 범위에 기초하여 선별할 수 있다. 또한, 예를 들어 데이터 취득부가 분광기가 달린 카메라인 경우에는, 데이터는 분광 분포 데이터로서 취득할 수 있다.Furthermore, the screening device according to the sixth aspect of the present invention can be configured so that the data acquisition unit includes a visible camera, and the data acquired by the data acquisition unit is image data. According to the above configuration, the data acquisition unit is provided with a visible camera and can acquire data as image data, so that the selection target can be selected based on the shape, position, size, and range of the selection target. Additionally, for example, if the data acquisition unit is a camera equipped with a spectroscope, data can be acquired as spectral distribution data.
게다가 또한, 본 발명의 제 7 측면에 관련된 선별 장치는, 상기 종별 물체의 화상 데이터와 그 종별 물체의 종류를 특정하는 정보를 관련지어 보존하는 기억부를 구비하고, 상기 학습 데이터 작성부는, 상기 데이터 취득부에서 취득한 상기 종별 물체의 화상 데이터로부터 배경을 없애고 그 종별 물체를 추출하여 이루어지는 추출 화상 데이터를 작성하는 화상 추출부와, 상기 화상 추출부에서 작성된, 상기 혼합물에 포함되는 물체 전체 종류의 상기 추출 화상 데이터 중에서, 하나 또는 복수의 추출 화상 데이터를 랜덤하게 선택하고, 상기 데이터 취득부에서 촬상된 배경의 화상 데이터와 그 추출 화상 데이터를 합성하여 이루어지는 학습용 화상 데이터를 작성하는 화상 합성부와, 상기 화상 합성부에서 작성된 상기 학습용 화상 데이터와 상기 기억부에 보존된 정보에 기초하여 특정되는 상기 학습용 화상 데이터에 포함되는 종별 물체의 종류 및 위치의 정보를 관련지어 상기 학습 데이터를 작성하는 해답 작성부를 갖도록 구성할 수 있다. 상기 구성에 의하면, 유저의 지시에 의해, 인공 지능에 학습시키는 학습 데이터수를 제어할 수 있기 때문에, 학습 횟수를 늘림으로써 선별의 정밀도를 향상시킬 수 있다.Furthermore, the selection device according to the seventh aspect of the present invention has a storage unit that stores image data of the type object in association with information specifying the type of the type object, and the learning data creation unit acquires the data. an image extraction unit that creates extracted image data by removing the background from the image data of the object of the type acquired by the unit and extracting the object of the type, and the extracted image of all types of objects included in the mixture created by the image extraction unit; an image synthesis unit that randomly selects one or a plurality of extracted image data from among the data and creates training image data by synthesizing background image data captured by the data acquisition unit and the extracted image data, and the image synthesis unit; It may be configured to have an answer creation unit that creates the learning data by associating the learning image data created in the unit with the information on the type and position of the type object included in the learning image data specified based on the information stored in the storage unit. You can. According to the above configuration, the number of learning data to be learned by artificial intelligence can be controlled by user instructions, and thus the precision of selection can be improved by increasing the number of learning.
게다가 또한, 본 발명의 제 8 측면에 관련된 선별 장치는, 상기 선별부가, 상기 판단 결과에 기초하여 상기 선별 대상물에 압축한 공기를 쐬어, 상기 혼합물 중에서 상기 선별 대상물을 선별할 수 있다.Furthermore, in the sorting device according to the eighth aspect of the present invention, the sorting unit can select the sorting object from the mixture by blowing compressed air on the sorting object based on the judgment result.
게다가 또한, 본 발명의 제 9 측면에 관련된 선별 장치는, 상기 판단부가, 상기 학습부에서 작성된 학습 모델에 기초하여, 상기 데이터 취득부에서 취득한 혼합물의 데이터로부터, 상기 혼합물 중의 각 물체가 상기 선별 대상 선택부에서 선택된 선별 대상물일 확률을 나타내는 제 1 인식률을 산출하고, 그 제 1 인식률에 기초하여, 상기 선별 대상물의 유무 및 위치를 판단하고, 상기 선별부가, 상기 판단부의 판단 결과 및 상기 제 1 인식률에 대해 형성되는 임계값에 기초하여 상기 혼합물 중에서 상기 선별 대상물을 선별할 수 있다. 상기 구성에 의하면, 혼합물로부터 선별 대상물을 선별하는 운전시에 있어서, 혼합물의 각 물체가 선별 대상물일 확률을 나타내는 제 1 인식률을 인공 지능에 산출시키고, 그 인식률과 유저가 설정할 수 있는 임계값을 서로 연결시켜 선별 대상을 판단하기 때문에, 인공 지능을 이용하면서도, 선별 정밀도를 유저가 컨트롤할 수 있게 된다. 바꾸어 말하면, 선별의 목적이, 대략적으로 분류할 수 있으면 된다는 경우부터, 원하는 물체만 고정밀도로 추출하고자 하는 경우 등 여러 가지 상정되는 바, 선별 정밀도에 대한 유저의 요구에 따른 선별이 가능해진다.Furthermore, the selection device according to the ninth aspect of the present invention is such that the determination unit selects each object in the mixture from the data of the mixture acquired by the data acquisition unit based on the learning model created in the learning unit to be the selection target. Calculate a first recognition rate indicating the probability that the selection object is selected by the selection unit, determine the presence or absence and location of the selection object based on the first recognition rate, and the selection unit determines the determination result of the determination unit and the first recognition rate. The selection object can be selected from the mixture based on a threshold value formed for . According to the above configuration, during the operation of selecting a selection object from a mixture, the first recognition rate indicating the probability that each object in the mixture is a selection object is calculated by artificial intelligence, and the recognition rate and a threshold value that can be set by the user are mutually related. Because the selection target is judged by connection, the user can control the selection precision while using artificial intelligence. In other words, the purpose of sorting can be assumed to be various, from cases where it is sufficient to roughly classify to cases where it is desired to extract only desired objects with high precision, etc., so that sorting according to the user's request for sorting precision becomes possible.
게다가 또한, 본 발명의 제 10 측면에 관련된 선별 장치는, 상기 선별부가, 상기 제 1 인식률이 상기 임계값 이상인 선별 대상물을 선별할 수 있다. 상기 구성에 의하면, 임계값을 높게 설정함으로써, 고정밀도로 선별할 수 있고, 임계값을 낮게 설정함으로써, 대략적으로 선별할 수 있다.Furthermore, in the sorting device according to the tenth aspect of the present invention, the sorting unit can select a sorting object whose first recognition rate is equal to or greater than the threshold. According to the above configuration, by setting the threshold high, it is possible to select with high precision, and by setting the threshold low, it is possible to roughly select.
게다가 또한, 본 발명의 제 11 측면에 관련된 선별 장치는, 상기 판단부가, 상기 학습부에서 작성된 학습 모델에 기초하여, 상기 데이터 취득부에서 취득한 혼합물의 데이터로부터, 상기 혼합물 중의 각 물체가 상기 종별 물체마다 그 종별 물체일 확률을 나타내는 제 2 인식률을 산출하고, 그 제 2 인식률에 기초하여, 상기 혼합물 중의 각 물체의 종류를 특정하고, 그 종류가 상기 선별 대상물의 종류와 일치하는 경우의 제 2 인식률을 상기 제 1 인식률로 간주하여, 상기 선별 대상물의 유무 및 위치를 판단할 수 있다. 상기 구성에 의하면, 혼합물의 각 물체에 대해, 종별 물체마다 제 2 인식률이 전부 산출되기 때문에, 물체의 종류를 제 2 인식률이 최고값이 되는 종류라고 판별할 수 있고, 선별 대상물과 종류가 동일하다고 판별된 물체에 대해, 유저가 설정할 수 있는 임계값과 서로 연결시켜 선별을 실시하기 때문에, 유저는, 선별 대상물을 변경하는 경우에서도, 선별 대상물에 특화된 학습 모델을 다시 작성할 필요가 없이, 선별 대상물을 용이하게 변경할 수 있다.Furthermore, the selection device according to the eleventh aspect of the present invention is such that the judgment unit determines that each object in the mixture is an object of the type from the data of the mixture acquired by the data acquisition unit based on the learning model created by the learning unit. Calculating a second recognition rate for each object indicating the probability that it is an object of that type, specifying the type of each object in the mixture based on the second recognition rate, and a second recognition rate when the type matches the type of the selection object. By considering this as the first recognition rate, the presence and location of the selection object can be determined. According to the above configuration, since the second recognition rate is calculated for each object of each type for each object in the mixture, the type of the object can be determined as the type for which the second recognition rate is the highest, and the type is the same as the selection object. Since the identified objects are sorted by linking them to a threshold value that can be set by the user, the user can select the sorted object without having to re-create a learning model specialized for the sorted object even when changing the sorted object. It can be easily changed.
게다가 또한, 본 발명의 제 12 측면에 관련된 선별 장치는, 상기 제 1 인식률에 대해 원하는 임계값을 설정하는 임계값 설정부를 구비하고, 상기 조작부가, 상기 임계값 설정부에 상기 임계값의 설정을 지시하는 임계값 설정 지시부를 가질 수 있다. 상기 구성에 의하면, 유저는 선별 정밀도를 용이하게 설정ㆍ변경할 수 있다.Furthermore, the selection device according to the twelfth aspect of the present invention includes a threshold setting unit that sets a desired threshold value for the first recognition rate, and the operation unit sets the threshold value in the threshold setting unit. It may have a threshold setting indicator that indicates. According to the above configuration, the user can easily set and change the sorting precision.
게다가 또한, 본 발명의 제 13 측면에 관련된 선별 방법은, 복수 종류의 물체로 구성되는 혼합물 중에서 선별 대상물을 선별하는 선별 방법으로서, 데이터 취득 지시부로부터의 조작을 받아, 종류별로 분별된 상기 물체인 종별 물체 또는 상기 혼합물에 기초하는 데이터를 취득하는 데이터 취득 공정과, 학습 데이터 작성 지시부로부터의 조작을 받아, 상기 데이터 취득 공정에서 취득한 상기 종별 물체의 데이터로부터 학습 데이터를 작성하는 학습 데이터 작성 공정과, 학습 개시 지시부로부터의 조작을 받아, 상기 학습 데이터 작성 공정에서 작성한 학습 데이터를 사용하여 혼합물을 종류별로 분별하고, 종별 물체로 하는 방법을 학습하고, 그 학습에 의해 얻어진 지식 및 경험을 데이터화한 학습 모델을 작성하는 학습 공정과, 선별 대상 선택 지시부로부터의 조작을 받아, 상기 종별 물체 중에서 상기 선별 대상물의 종류를 선택하는 선별 대상 선택 공정과, 운전 개시 지시부로부터의 조작을 받아, 상기 학습 공정에서 작성한 학습 모델에 기초하여, 상기 데이터 취득 공정에서 취득한 혼합물의 데이터로부터 상기 선별 대상 선택 공정에서 선택된 종류의 선별 대상물의 유무 및 위치를 판단하고, 그 판단 결과에 기초하여 상기 혼합물 중에서 상기 선별 대상물을 선별하는 운전 공정을 포함할 수 있다.Furthermore, the selection method related to the thirteenth aspect of the present invention is a selection method for selecting a selection object from a mixture consisting of a plurality of types of objects, and receives an operation from a data acquisition instruction unit to select the object classified by type. A data acquisition step of acquiring data based on the object or the mixture, a learning data creation step of receiving an operation from a learning data creation instruction unit and creating learning data from the data of the type object acquired in the data acquisition step, and learning By receiving an operation from the start instruction unit, the learning data created in the learning data creation process is used to learn how to classify the mixture into types and create objects by type, and create a learning model that converts the knowledge and experience obtained through the learning into data. A learning process to create, a selection target selection process for receiving an operation from a selection target selection instruction unit to select the type of the selection object from the type objects, and a learning model created in the learning process by receiving an operation from an operation start instruction unit. Based on this, an operation process of determining the presence or absence and location of the type of selection object selected in the selection object selection process from the data of the mixture acquired in the data acquisition process, and selecting the selection object from the mixture based on the judgment result. may include.
게다가 또한, 본 발명의 제 14 측면에 관련된 선별 방법은, 모드 전환 지시부로부터의 조작을 받아, 적어도 상기 데이터 취득 지시부, 학습 데이터 작성 지시부 및 학습 개시 지시부를 표시하는 학습 모드와, 적어도 상기 운전 개시 지시부를 표시하는 운전 모드를 포함하는 모드 전환 조작을 실시할 수 있다.Furthermore, the selection method according to the fourteenth aspect of the present invention includes a learning mode that receives an operation from a mode switching instruction unit and displays at least the data acquisition instruction section, the learning data creation instruction section, and the learning start instruction section, and at least the operation start instruction section. A mode switching operation including an operation mode displaying can be performed.
게다가 또한, 본 발명의 제 15 측면에 관련된 선별 방법은, 적어도 상기 데이터 취득 지시부, 학습 데이터 작성 지시부, 학습 개시 지시부, 선별 대상 선택 지시부 및 운전 개시 지시부를 한 화면에 표시할 수 있다.Furthermore, the selection method according to the fifteenth aspect of the present invention can display at least the data acquisition instruction section, learning data creation instruction section, learning start instruction section, selection object selection instruction section, and driving start instruction section on one screen.
게다가 또한, 본 발명의 제 16 측면에 관련된 선별 방법은, 상기 운전 공정에 있어서, 운전 개시 지시부로부터의 조작을 받아, 상기 학습 공정에서 작성한 학습 모델에 기초하여, 상기 데이터 취득 공정에서 취득한 혼합물의 데이터로부터, 상기 혼합물 중의 각 물체가 상기 선별 대상 선택부에서 선택된 선별 대상물일 확률을 나타내는 제 1 인식률을 산출하고, 그 제 1 인식률에 기초하여, 상기 선별 대상물의 유무 및 위치를 판단하고, 그 판단 결과 및 상기 제 1 인식률에 대해 형성되는 임계값에 기초하여 상기 혼합물 중에서 상기 선별 대상물을 선별할 수 있다.In addition, the selection method related to the sixteenth aspect of the present invention provides, in the operation step, an operation from an operation start instruction unit, and based on the learning model created in the learning step, data of the mixture acquired in the data acquisition step. From this, a first recognition rate indicating the probability that each object in the mixture is the selection object selected in the selection object selection unit is calculated, and based on the first recognition rate, the presence or absence and location of the selection object are determined, and the judgment result is And the selection object may be selected from the mixture based on a threshold value formed for the first recognition rate.
게다가 또한, 본 발명의 제 17 측면에 관련된 선별 방법은, 상기 운전 공정에 있어서, 상기 제 1 인식률이 상기 임계값 이상인 선별 대상물을 선별할 수 있다.Furthermore, the selection method according to the seventeenth aspect of the present invention can select, in the operation process, a selection object whose first recognition rate is equal to or greater than the threshold value.
게다가 또한, 본 발명의 제 18 측면에 관련된 선별 방법은, 상기 운전 공정에 있어서, 상기 학습 공정에서 작성된 학습 모델에 기초하여, 상기 데이터 취득 공정에서 취득한 혼합물의 데이터로부터, 상기 혼합물 중의 각 물체가 상기 종별 물체마다 그 종별 물체일 확률을 나타내는 제 2 인식률을 산출하고, 그 제 2 인식률에 기초하여, 상기 혼합물 중의 각 물체의 종류를 특정하고, 그 종류가 상기 선별 대상물의 종류와 일치하는 경우의 제 2 인식률을 상기 제 1 인식률로 간주하여, 상기 선별 대상물의 유무 및 위치를 판단할 수 있다.Furthermore, the selection method related to the 18th aspect of the present invention is such that, in the operation process, each object in the mixture is selected from the mixture data acquired in the data acquisition process, based on the learning model created in the learning process. For each type of object, a second recognition rate indicating the probability that it is an object of that type is calculated, and based on the second recognition rate, the type of each object in the mixture is specified, and the type matches the type of the selection object. By considering the 2 recognition rate as the first recognition rate, the presence and location of the selection object can be determined.
게다가 또한, 본 발명의 제 19 측면에 관련된 선별 방법은, 복수 종류의 물체로 구성되는 혼합물 중에서 선별 대상물을 선별하기 위한 선별 프로그램으로서, 데이터 취득 지시부로부터의 조작을 받아, 종류별로 분별된 상기 물체인 종별 물체 또는 상기 혼합물에 기초하는 데이터를 취득하는 기능과, 학습 데이터 작성 지시부로부터의 조작을 받아, 상기 취득한 상기 종별 물체의 촬상 데이터로부터 학습 데이터를 작성하는 기능과, 학습 개시 지시부로부터의 조작을 받아, 상기 작성한 학습 데이터를 사용하여 혼합물을 종류별로 분별하고, 종별 물체로 하는 방법을 학습하고, 그 학습에 의해 얻어진 지식 및 경험을 데이터화한 학습 모델을 작성하는 기능과, 선별 대상 선택 지시부로부터의 조작을 받아, 상기 종별 물체 중에서 상기 선별 대상물의 종류를 선택하는 기능과, 운전 개시 지시부로부터의 조작을 받아, 상기 작성한 학습 모델에 기초하여, 상기 취득한 혼합물의 데이터로부터 상기 선택된 종류의 선별 대상물의 유무 및 위치를 판단하고, 그 판단 결과에 기초하여 상기 혼합물 중에서 상기 선별 대상물을 선별하는 기능을 컴퓨터에 실현시킬 수 있다.Furthermore, the selection method related to the 19th aspect of the present invention is a selection program for selecting a selection object from a mixture consisting of a plurality of types of objects, and receives an operation from a data acquisition instruction unit to select the objects classified by type. A function to acquire data based on the type object or the mixture, an operation from a learning data creation instruction section, a function to create learning data from the acquired imaging data of the type object, and an operation from a learning start instruction section. , using the learning data created above, to learn how to classify mixtures by type and create objects by type, and to create a learning model that converts the knowledge and experience obtained through the learning into data, and operation from the selection target selection instruction unit. a function to select the type of the sorting object from the type objects, and receiving an operation from the operation start instruction unit, based on the created learning model, the presence or absence of the sorting object of the selected type from the data of the acquired mixture, and The function of determining the position and selecting the sorting object from the mixture based on the judgment result can be implemented in a computer.
게다가 또한, 본 발명의 제 20 측면에 관련된 선별 방법은, 운전 개시 지시부로부터의 조작을 받아, 상기 작성한 학습 모델에 기초하여, 상기 취득한 혼합물의 데이터로부터, 상기 혼합물 중의 각 물체가 상기 선별 대상 선택부에서 선택된 선별 대상물일 확률을 나타내는 제 1 인식률을 산출하고, 그 제 1 인식률에 기초하여, 상기 선별 대상물의 유무 및 위치를 판단하고, 그 판단 결과 및 제 1 인식률에 대해 형성되는 임계값에 기초하여 상기 혼합물 중에서 상기 선별 대상물을 선별할 수 있다.Furthermore, the selection method according to the twentieth aspect of the present invention receives an operation from a driving start instruction unit and, based on the created learning model, selects each object in the mixture from the data of the mixture to be selected by the selection target selection unit. Calculate a first recognition rate indicating the probability that the selection object is selected, determine the presence or absence and location of the selection object based on the first recognition rate, and based on the judgment result and a threshold formed for the first recognition rate. The selection target can be selected from the mixture.
게다가 또한, 본 발명의 제 21 측면에 관련된 선별 방법은, 상기 제 1 인식률이 상기 임계값 이상인 선별 대상물을 선별하는 기능을 컴퓨터에 실현시킬 수 있다.Moreover, the selection method according to the 21st aspect of the present invention enables a computer to realize the function of selecting a selection object whose first recognition rate is equal to or higher than the threshold value.
게다가 또한, 본 발명의 제 22 측면에 관련된 선별 방법은, 상기 작성한 학습 모델에 기초하여, 상기 취득한 혼합물의 데이터로부터, 상기 혼합물 중의 각 물체가 상기 종별 물체마다 그 종별 물체일 확률을 나타내는 제 2 인식률을 산출하고, 그 제 2 인식률에 기초하여, 상기 혼합물 중의 각 물체의 종류를 특정하고, 그 종류가 상기 선별 대상물의 종류와 일치하는 경우의 제 2 인식률을 상기 제 1 인식률로 간주하여, 상기 선별 대상물의 유무 및 위치를 판단하는 기능을 컴퓨터에 실현시킬 수 있다.Furthermore, the selection method related to the 22nd aspect of the present invention is a second recognition rate that indicates the probability that each object in the mixture is an object of that type for each object of the type, from the data of the obtained mixture, based on the learning model created above. Calculate, based on the second recognition rate, specify the type of each object in the mixture, consider the second recognition rate when the type matches the type of the selection object as the first recognition rate, and perform the selection. The function of determining the presence and location of an object can be implemented on a computer.
게다가 또한, 본 발명의 제 23 측면에 관련된 기록 매체 또는 기억한 기기는, 상기 프로그램을 격납한 것이다. 기록 매체에는, CD-ROM, CD-R, CD-RW 나 플렉시블 디스크, 자기 테이프, MO, DVD-ROM, DVD-RAM, DVD-R, DVD+R, DVD-RW, DVD+RW, Blu-ray (등록 상표), BD-R, BD-RE, HD DVD (AOD) 등의 자기 디스크, 광 디스크, 광자기 디스크, 반도체 메모리 그 밖의 프로그램을 격납 가능한 매체가 포함된다. 또 프로그램에는, 상기 기록 매체에 격납되어 배포되는 것 외에, 인터넷 등의 네트워크 회선을 통해 다운로드에 의해 배포되는 형태의 것도 포함된다. 또한 기록 매체에는 프로그램을 기록 가능한 기기, 예를 들어 상기 프로그램이 소프트웨어나 펌웨어 등의 형태로 실행 가능한 상태로 실장된 범용 혹은 전용 기기를 포함한다. 게다가 또한 프로그램에 포함되는 각 처리나 기능은, 컴퓨터로 실행 가능한 프로그램 소프트웨어에 의해 실행해도 되고, 각 부의 처리를 소정의 게이트 어레이 (FPGA, ASIC) 등의 하드웨어 또는 프로그램 소프트웨어와 하드웨어의 일부의 요소를 실현하는 부분적 하드웨어 모듈이 혼재하는 형식으로 실현해도 된다.Furthermore, the recording medium or storage device related to the twenty-third aspect of the present invention stores the above program. Recording media include CD-ROM, CD-R, CD-RW, flexible disk, magnetic tape, MO, DVD-ROM, DVD-RAM, DVD-R, DVD+R, DVD-RW, DVD+RW, Blu- Includes magnetic disks such as ray (registered trademark), BD-R, BD-RE, HD DVD (AOD), optical disks, magneto-optical disks, semiconductor memories, and other media capable of storing programs. In addition, programs include those distributed by being stored on the above-mentioned recording medium, as well as those distributed by downloading through network lines such as the Internet. Additionally, recording media include devices capable of recording programs, for example, general-purpose or dedicated devices in which the program is executable in the form of software or firmware. Additionally, each process or function included in the program may be executed by computer-executable program software, and the processing of each part may be performed using hardware such as a predetermined gate array (FPGA, ASIC) or some elements of program software and hardware. It may be realized in a format where partial hardware modules are mixed.
도 1 은, 본 발명의 실시형태에 관련된 선별 장치의 개략도이다.
도 2 는, 본 발명의 실시형태에 관련된 라인 센서 카메라와 컨베이어의 위치 관계의 설명도이다.
도 3 은, 본 발명의 실시형태에 관련된 라인 센서 카메라로 작성하는 화상 데이터의 설명도이다.
도 4 는, 화상 데이터로부터 물체가 비치는 부분을 추출하여, 추출 화상 데이터를 작성하는 방법의 설명도이다.
도 5 는, 화상 데이터로부터 물체가 비치는 부분을 추출하여, 추출 화상 데이터를 작성하는 방법의 설명도이다.
도 6 은, 인공적인 혼합물의 화상 데이터를 작성하는 방법의 설명도이다.
도 7 은, 분사 영역 및 에어 분사 노즐마다의 분사 타이밍을 설정하는 방법의 설명도이다.
도 8 은, 본 발명의 실시형태에 관련된 선별 장치의 기능 블록도이다.
도 9 는, 학습 모드에 있어서의 선별 장치의 조작 방법의 흐름을 나타내는 플로 차트이다.
도 10 은, 컨트롤러에 표시되는 화면의 설명도이다.
도 11 은, 컨트롤러에 표시되는 화면의 설명도이다.
도 12 는, 컨트롤러에 표시되는 화면의 설명도이다.
도 13 은, 컨트롤러에 표시되는 화면의 설명도이다.
도 14 는, 컨트롤러에 표시되는 화면의 설명도이다.
도 15 는, 컨트롤러에 표시되는 화면의 설명도이다.
도 16 은, 컨트롤러에 표시되는 화면의 설명도이다.
도 17 은, 컨트롤러에 표시되는 화면의 설명도이다.
도 18 은, 운전 모드에 있어서의 선별 장치의 조작 방법의 흐름을 나타내는 플로 차트이다.
도 19 는, 컨트롤러에 표시되는 화면의 설명도이다.
도 20 은, 컨트롤러에 표시되는 화면의 설명도이다.
도 21 은, 컨트롤러에 표시되는 화면의 설명도이다.
도 22 는, 컨트롤러에 표시되는 화면의 설명도이다.1 is a schematic diagram of a sorting device related to an embodiment of the present invention.
Fig. 2 is an explanatory diagram of the positional relationship between a line sensor camera and a conveyor according to an embodiment of the present invention.
Fig. 3 is an explanatory diagram of image data created by a line sensor camera according to an embodiment of the present invention.
Fig. 4 is an explanatory diagram of a method of extracting a portion where an object is reflected from image data and creating extracted image data.
Fig. 5 is an explanatory diagram of a method of extracting a portion where an object is reflected from image data and creating extracted image data.
Fig. 6 is an explanatory diagram of a method for creating image data of an artificial mixture.
Fig. 7 is an explanatory diagram of a method for setting the injection timing for each injection area and air injection nozzle.
Fig. 8 is a functional block diagram of a sorting device related to an embodiment of the present invention.
Fig. 9 is a flow chart showing the flow of the method of operating the selection device in the learning mode.
Fig. 10 is an explanatory diagram of the screen displayed on the controller.
Fig. 11 is an explanatory diagram of the screen displayed on the controller.
Fig. 12 is an explanatory diagram of the screen displayed on the controller.
Figure 13 is an explanatory diagram of the screen displayed on the controller.
Fig. 14 is an explanatory diagram of the screen displayed on the controller.
Fig. 15 is an explanatory diagram of the screen displayed on the controller.
Figure 16 is an explanatory diagram of the screen displayed on the controller.
Figure 17 is an explanatory diagram of the screen displayed on the controller.
Fig. 18 is a flow chart showing the flow of the method of operating the sorting device in the operation mode.
Figure 19 is an explanatory diagram of the screen displayed on the controller.
Figure 20 is an explanatory diagram of the screen displayed on the controller.
Figure 21 is an explanatory diagram of the screen displayed on the controller.
Figure 22 is an explanatory diagram of the screen displayed on the controller.
이하, 본 발명의 실시형태를 도면에 기초하여 설명한다. 단, 이하에 나타내는 실시형태는, 본 발명의 기술 사상을 구체화하기 위한 선별 장치를 예시하는 것으로서, 본 발명은 그것들을 이하의 것으로 특정하지 않는다. 또, 본 명세서는 특허청구범위에 나타나는 부재를, 실시형태의 부재로 특정하는 것은 결코 아니다. 특히 실시형태에 기재되어 있는 구성 부품의 치수, 재질, 형상, 그 상대적 배치 등은 특히 특정적인 기재가 없는 한은, 본 발명의 범위를 그것에만 한정하려는 취지는 아니며, 단순한 설명예에 불과하다. 또한, 각 도면이 나타내는 부재의 크기나 위치 관계 등은, 설명을 명확하게 하기 위해 과장하고 있는 경우가 있다. 또한 이하의 설명에 있어서, 동일한 명칭, 부호에 대해서는 동일 혹은 동질의 부재를 나타내고 있어, 상세 설명을 적절히 생략한다. 또한, 본 발명을 구성하는 각 요소는, 복수의 요소를 동일한 부재로 구성하여 하나의 부재로 복수의 요소를 겸용하는 양태로 해도 되고, 반대로 하나의 부재의 기능을 복수의 부재로 분담하여 실현할 수도 있다.EMBODIMENT OF THE INVENTION Hereinafter, embodiment of this invention will be described based on the drawings. However, the embodiments shown below exemplify a sorting device for embodying the technical idea of the present invention, and the present invention does not specify them as follows. In addition, this specification in no way specifies members appearing in the claims as members of the embodiments. In particular, the dimensions, materials, shapes, relative arrangements, etc. of the component parts described in the embodiments are not intended to limit the scope of the present invention only thereto, unless specifically stated, and are merely illustrative examples. Additionally, the sizes and positional relationships of members shown in each drawing may be exaggerated for clarity of explanation. In addition, in the following description, the same names and symbols indicate identical or homogeneous members, and detailed descriptions are appropriately omitted. In addition, each element constituting the present invention may be configured by forming a plurality of elements into the same member, so that a single member can serve as a plurality of elements, or conversely, the function of one member may be divided into a plurality of members. there is.
(선별 장치 (1))(Selection device (1))
본 발명의 실시형태에 관련된 선별 장치 (1) 에 대하여, 개략도인 도 1, 기능 블록도인 도 8, 및 라인 센서 카메라 (11) 와 컨베이어 (13) 의 위치 관계의 설명도인 도 2 에 기초하여 설명한다.Regarding the
도 1 에 나타내는 바와 같이, 본 실시형태에 관련된 선별 장치 (1) 는, 공급 장치 (2) 로부터 공급되고, 컨베이어 (13) 에 흐르는 복수 종류의 물체로 구성되는 혼합물 (MO) 중에서 선별 대상물 (SO) 을, 압축 공기를 내보내는 에어 분사 노즐 (14) 을 사용하여 선별하는 장치로서, 주로, 라인 센서 카메라 (11) (특허청구범위에 있어서의 「데이터 취득부」의 일례에 대응한다.), 제 1 제어부 (12), 컨트롤러 (15) (특허청구범위에 있어서의 「조작부」의 일례에 대응한다.), 컨베이어 (13) 및 에어 분사 노즐 (14) 로 구성된다. 공급 장치 (2) 는, 예를 들어, 투입 호퍼 (21) 와 이송 컨베이어 (22) 와 투입 피더 (23) 로 이루어진다. 투입 호퍼 (21) 는, 혼합물 (MO) 을 받아들일 수 있도록 구성되어 있다. 이송 컨베이어 (22) 는, 투입 호퍼 (21) 로부터 공급되는 혼합물 (MO) 을 투입 피더 (23) 에 공급한다. 투입 피더 (23) 는, 진동 피더 또는 전자 (電磁) 피더 등으로 구성되어 있고, 진동함으로써, 혼합물 (MO) 끼리의 중첩을 방지하면서 혼합물 (MO) 을 컨베이어 (13) 에 공급한다.As shown in FIG. 1, the
선별 장치 (1) 는, 학습 모드 (LM) 및 운전 모드 (OM) 의 2 개의 모드를 구비하고 있다. 학습 모드 (LM) 는, 선별 장치 (1) 를 동작시키기 위한 준비, 설정을 실시하는 모드이다. 한편, 운전 모드 (OM) 는, 실제로 혼합물 (MO) 로부터 선별 대상물 (SO) 을 선별하는 모드이다.The
혼합물 (MO) 은, 금속이나 종이, 플라스틱 등, 라인 센서 카메라 (11) 에 의해 취득한 화상 데이터로부터 개개의 물체를 식별 가능하고, 에어 분사 노즐 (14) 에 의한 에어의 분사에 의해 진로를 변경할 수 있는 복수 종류의 물체로 구성되어 있다. 혼합물 (MO) 에 포함되는 물체의 종류로는, 예를 들어, 금속이나 종이, 플라스틱 등이 상정되지만, 예를 들어 금속이라고 하는 큰 묶음에 한정되지 않고, 보다 하층으로 분류되는 구리나 알루미늄 등, 색채와 형상으로부터 식별할 수 있는 것은 전부 대상이 될 수 있다. 또, 본 실시형태에 관련된 선별 장치 (1) 는, 예를 들어, 알루미늄, 놋쇠, 금, 은, 구리와 같이 한번에 5 종류까지 물체를 식별할 수 있게 되어 있고, 그와 같은 물체로 구성된 혼합물 (MO) 중에서, 선별 대상물 (SO) 로서, 예를 들어 구리만과 같이 한 종류를 선별할 수도 있고, 예를 들어 알루미늄ㆍ놋쇠ㆍ금과 같이 동시에 복수의 종류를 선별할 수도 있도록 구성되어 있다.For the mixture (MO), individual objects such as metal, paper, plastic, etc. can be identified from image data acquired by the
이하, 각 부재에 대하여 상세하게 설명한다. 또한, 이하의 설명에 있어서, 편의상, 혼합물 (MO) 은 물체 A ∼ C (특허청구범위에 있어서의 「종별 물체」의 일례에 대응한다.) 로 구성되고, 선별 대상물 (SO) 로서 물체 A 를 선택한 것으로 한다.Hereinafter, each member will be described in detail. In addition, in the following description, for convenience, the mixture (MO) is composed of objects A to C (corresponding to an example of a “class object” in the scope of the patent claims), and object A is used as the object to be screened (SO). Make your choice.
(라인 센서 카메라 (11))(Line Sensor Camera (11))
선별 장치 (1) 는, 도 2 에 나타내는 바와 같이, 2 개의 라인 센서 카메라 (11) 가 컨베이어 (13) 의 폭 방향으로 나열되어 형성되어 있다. 라인 센서 카메라 (11) 는, 컨베이어 (13) 의 인코더 (131) 로부터 펄스를 받을 때마다 촬상을 실시하고, 이 촬상 결과로부터 화상 데이터 (ID) 를 취득하는 부재이다.As shown in FIG. 2, the
라인 센서 카메라 (11) 의 X 방향은 컨베이어 (13) 의 폭 방향, Y 방향은 컨베이어 (13) 의 진행 방향에 대응하고 있고, 도 2 에 나타내는 바와 같이, 1 개의 라인 센서 카메라 (11) 로, 소정의 X 방향 촬상 범위 (11a) 를 촬상할 수 있다. 이 X 방향 범위 (11a) 로부터, 컨베이어 (13) 양 단의 제외 범위 (11b) 와 컨베이어 (13) 중앙의 제외 범위 (11c) 를 제외한 X 방향 유효 범위 (11d) 를 2 개 모두 합친 X 방향 범위 (11e) 를, 도 3 에 나타내는 바와 같이, Y 방향으로 소정의 Y 방향 범위 (11f) 에서 빼내어 화상 데이터 (ID) 를 작성한다. 작성된 화상 데이터 (ID) 중, Y 방향의 일단으로부터 원하는 중복 범위 (11g) 는, 직전에 작성된 화상 데이터 (ID) 와 중복되는 범위이다.The X direction of the
학습 모드에 있어서의 라인 센서 카메라 (11) 는, 혼합물 (MO) 에 포함되는 물체를, 물체마다 촬상하여, 각 물체의 화상 데이터 (ID) 를 작성한다. 구체적으로는, 복수의 물체 A 가 컨베이어 (13) 로 흘러간 상태에서 촬상을 실시하여, 물체 A 의 화상 데이터 (ID) 를 작성한다. 물체 B, C 도 동일하게 하여, 물체 B, C 의 화상 데이터 (ID) 를 작성한다. 작성된 각 물체의 화상 데이터 (ID) 는, 촬상된 물체의 명칭과 관련지어진 상태에서 도 8 에 나타내는 기억부 (121) 로 송신되어, 보존된다. 또, 물체를 컨베이어 (13) 로 흐르게 하지 않은 상태에서 촬상을 실시하여, 배경 화상 (BI) 을 작성하고, 작성된 배경 화상 (BI) 은 기억부 (121) 로 송신되어, 보존된다.The
또, 운전 모드 (OM) 에 있어서의 라인 센서 카메라 (11) 는, 혼합물 (MO) 이 컨베이어 (13) 로 흘러간 상태에서 촬상을 실시하여, 혼합물 (MO) 의 화상 데이터 (ID) 를 작성한다. 작성된 혼합물 (MO) 의 화상 데이터 (ID) 는, 판단부 (125) 로 송신된다.Additionally, the
또한, 특허청구범위에 있어서의 「데이터 취득부」의 일례로서 라인 센서 카메라 (11) 를 설명했지만, 「데이터 취득부」는 이것에 한정되지 않고, 에어리어 센서 카메라여도 되고, 가시광, 적외선, X 선 중 어느 것을 사용한 것이어도 된다. X 선을 사용한 경우, X 선 광원을 컨베이어에 의해 반송되는 물체의 상부, X 선 카메라를 컨베이어의 벨트의 하부에 배치할 수 있고, 그 반대의 배치도 가능하다.In addition, the
또, 작성된 각 물체의 화상 데이터 (ID) 는, 물체의 명칭 이외에도, 후술하는 선별 대상 선택부 (124) 에 있어서, 선별 대상물 (SO) 을 선택할 때에 유저가 물체의 종류가 무엇인지 알 수 있는 정보와 관련지어져 있으면 된다.In addition, the created image data (ID) of each object is, in addition to the name of the object, information that allows the user to know the type of the object when selecting the sorting object (SO) in the sorting object selection unit 124 described later. It just has to be related to.
게다가 또한, 반드시 라인 센서 카메라 (11) 로 촬상, 작성한 배경 화상 (BI) 을 기억부 (121) 에 보존할 필요는 없고, 예를 들어, 배경 화상 (BI) 은, 선별 장치 (1) 의 제조 단계에서 별도로 준비되고, 기억부 (121) 에 보존되는 양태여도 된다.In addition, it is not necessarily necessary to store the background image (BI) captured and created by the
게다가 또한, 배경 화상 (BI) 대신에, 컨베이어 (13) 의 색의 정보를 기억부 (121) 에 보존하도록 해도 된다.Additionally, instead of the background image BI, information on the color of the
(제 1 제어부 (12))(First control unit (12))
제 1 제어부 (12) 는, 기억부 (121), 학습 데이터 작성부 (122), 학습부 (123), 선별 대상 선택부 (124), 임계값 설정부 (126) 및 판단부 (125) 를 구비한다. 제 1 제어부 (12) 는, 운전 모드 (OM) 에 있어서, 라인 센서 카메라 (11) 로 취득한 혼합물 (MO) 의 화상 데이터 (ID) 로부터 선별 대상물 (SO) 의 유무 및 위치를 판단한다. 또, 학습 모드 (LM) 에 있어서는, 그 판단을 위한 준비, 설정이 실시된다. 이하, 각 부재에 대하여 상세하게 설명한다.The
(기억부 (121))(Memory (121))
기억부 (121) 는, 라인 센서 카메라 (11) 에 의해 작성된 물체 A ∼ C 의 화상 데이터 (ID) 및 화상 데이터 (ID) 에 관련지어진 물체의 명칭과, 배경 화상 (BI) 을 보존하는 부재이다.The storage unit 121 is a member that stores the image data (ID) of objects A to C created by the
(학습 데이터 작성부 (122))(Learning data creation department (122))
학습 데이터 작성부 (122) 는, 라인 센서 카메라 (11) 에 의해 촬상되고, 취득된 물체 A ∼ C 의 화상 데이터 (ID) 와 배경 화상 (BI) 으로부터, 학습 데이터 (LD) 를 작성하고, 보존한다. 학습 데이터 작성부 (122) 는, 화상 추출부 (122a), 화상 합성부 (122b) 및 해답 작성부 (122c) 의 3 개의 부재로 구성된다. 각 부재의 구성은 후술하는 바와 같다.The learning data creation unit 122 creates and stores learning data (LD) from the image data (ID) and background image (BI) of the objects A to C acquired and imaged by the
작성된 학습 데이터 (LD) 는 학습부 (123) 에서 실시하는 학습에 사용된다. 1 회의 학습에 대하여, 1 개의 학습 데이터 (LD) 가 사용되고, 이 학습을 반복하는 횟수가 많을수록 운전 모드 (OM) 에 있어서의 선별의 정밀도는 향상된다. 즉, 학습 데이터 작성부 (122) 에서 작성하는 학습 데이터 (LD) 가 많을수록, 운전 모드 (OM) 에 있어서의 선별의 정밀도는 향상된다. 또한, 본 발명의 제 1 실시예에 관련된 선별 장치 (1) 는, 상한을 4 만회로 하여, 유저가 학습의 반복 횟수를 자유롭게 설정할 수 있는 양태이다 (상세한 내용은 후술한다.).The created learning data (LD) is used for learning conducted by the
(화상 추출부 (122a))(Image extraction unit 122a)
화상 추출부 (122a) 는, 기억부 (121) 로부터 물체 A ∼ C 의 화상 데이터 (ID) 및 배경 화상 (BI) 을 불러내고, 배경 화상 (BI) 에 기초하여, 물체 A ∼ C 의 화상 데이터 (ID) 로부터 물체가 비치는 부분을 추출하여, 추출 화상 데이터 (SD) 를 작성한다. 예를 들어, 물체 A 의 화상 데이터 (ID) 를 추출하는 경우, 도 4 에 나타내는 바와 같이, 중복 범위 (11g) 를 제외한 범위를 1 픽셀마다 배경 화상 (BI) 과 비교한다. 비교의 결과, 배경 화상 (BI) 과 일치하는 부분 이외를 물체 A 가 비치는 부분으로서 잘라내어, 물체 A 의 추출 화상 데이터 (SD) 를 작성한다. 이상과 같이, 기본적으로, 중복 범위 (11g) 를 제외한 범위에서 비교를 실시하지만, 도 5 에 나타내는 바와 같이, 물체 A 가 이 범위에서 벗어난 위치에 있는 경우, 중복 범위 (11g) 까지 범위를 넓혀 비교를 실시한다. 동일하게 하여, 물체 B, C 의 화상 데이터 (ID) 로부터도 물체 B, C 의 추출 화상 데이터 (SD) 를 작성한다.The image extracting unit 122a retrieves the image data (ID) and background images (BI) of objects A to C from the storage unit 121 and, based on the background images (BI), retrieves the image data of objects A to C. The portion where the object is reflected is extracted from (ID), and extracted image data (SD) is created. For example, when extracting image data (ID) of object A, as shown in FIG. 4, the range excluding the overlapping range (11g) is compared with the background image (BI) for each pixel. As a result of the comparison, the part other than the part matching the background image (BI) is cut out as the part where the object A is reflected, and extracted image data (SD) of the object A is created. As mentioned above, basically, comparison is performed in a range excluding the overlapping range (11g), but as shown in Figure 5, if object A is located outside of this range, the range is expanded to the overlapping range (11g) and comparison is made. carry out. In the same manner, extracted image data (SD) of objects B and C are created from the image data (ID) of objects B and C.
또한, 배경 화상 (BI) 과 완전히 일치하는 부분뿐만 아니라, 배경 화상 (BI) 과 일치하는 것으로 간주하는 범위를 설정해 두고, 이것들 이외를 잘라내어, 추출 화상 데이터 (SD) 를 작성하도록 해도 된다. 이것에 의하면, 예를 들어, 컨베이어 (13) 에 흠집이나 오염이 있어, 배경 화상 (BI) 과 완전히 일치하지 않은 경우라 하더라도, 적절히 물체를 잘라내어, 그 물체의 추출 화상 데이터 (SD) 를 작성할 수 있다.Additionally, in addition to the portion that completely matches the background image (BI), a range considered to match the background image (BI) may be set, and areas other than these may be cut out to create extracted image data (SD). According to this, even if, for example, there are scratches or dirt on the
또, 엄밀하게 물체가 비치는 부분만을 추출할 필요는 없고, 배경 화상 (BI) 이 남도록 물체를 잘라내어, 그 물체의 추출 화상 데이터 (SD) 를 작성해도 되고, 예를 들어, 물체의 부분을 포함하는 장방 형상이나 원 형상으로 잘라낼 수도 있다. 이와 같이, 배경 화상 (BI) 이 남도록 물체를 잘라내는 경우, 그 형상은 특별히 한정되지 않지만, 남은 배경 화상 (BI) 의 면적이 작아지는 형상이 바람직하다.In addition, it is not necessary to strictly extract only the part where the object is reflected, and the object may be cut out so that the background image (BI) remains, and extracted image data (SD) of the object may be created, for example, including the part of the object. You can also cut it into a rectangular or circular shape. In this way, when cutting out an object so that the background image BI remains, the shape is not particularly limited, but a shape that reduces the area of the remaining background image BI is preferable.
(화상 합성부 (122b))(Image synthesis unit 122b)
화상 합성부 (122b) 는, 도 6 에 나타내는 바와 같이, 화상 추출부 (122a) 에서 작성된 물체 A ∼ C 의 추출 화상 데이터 (SD) 중에서, 랜덤하게 몇 개의 데이터를 선택하고, 배경 화상 (BI) 에, 랜덤한 위치, 각도, 사이즈로 합성하여, 인공적인 혼합물 (MO) 의 화상 데이터 (ID) 를 작성한다.As shown in FIG. 6, the image synthesis unit 122b randomly selects some data from the extracted image data (SD) of objects A to C created by the image extraction unit 122a and creates a background image (BI). Then, image data (ID) of an artificial mixture (MO) is created by compositing at random positions, angles, and sizes.
즉, 화상 합성부 (122b) 는, 추출 화상 데이터 (SD) 의 위치, 각도, 사이즈를 변경함으로써, 적은 물체 A ∼ C 의 화상 데이터 (ID) 로부터, 다수의 인공적인 혼합물 (MO) 의 화상 데이터 (ID) 를 작성할 수 있다. 또한, 화상 추출부 (122a) 의 항목에서 설명한 바와 같이, 배경 화상 (BI) 이 남도록 물체를 잘라내어 추출 화상 데이터 (SD) 를 작성하는 양태로 한 경우, 화상 합성부 (122b) 가, 추출 화상 데이터 (SD) 끼리가 겹치는 위치에서 추출 화상 데이터 (SD) 를 합성하여 혼합물 (MO) 의 화상 데이터 (ID) 를 작성하지 않게 한다. 추출 화상 데이터 (SD) 가 남은 배경 화상 (BI) 의 부분이, 다른 추출 화상 데이터 (SD) 의 물체의 부분과 겹침으로써, 그 물체의 형상이 바뀌는 것을 방지하기 위해서이다.That is, the image synthesis unit 122b changes the position, angle, and size of the extracted image data (SD), from the image data (ID) of a small number of objects A to C, to the image data of a large number of artificial mixtures (MO). (ID) can be written. In addition, as explained in the section on the image extraction unit 122a, in the case where the object is cut out so that the background image BI remains, and the extracted image data SD is created, the image synthesis unit 122b generates the extracted image data. Extracted image data (SD) is synthesized at positions where (SD) overlap each other, so that image data (ID) of the mixture (MO) is not created. This is to prevent the shape of the object from changing by overlapping the part of the background image (BI) in which the extracted image data (SD) remains with the part of the object in other extracted image data (SD).
(해답 작성부 (122c))(Answer writing section (122c))
해답 작성부 (122c) 는, 화상 합성부 (122b) 에서 작성된 인공적인 혼합물 (MO) 의 화상 데이터 (ID) 의 어느 위치에 물체 A ∼ C 중 어느 것이 배치되어 있는지를 기록한 정보를 인공적인 혼합물 (MO) 의 화상 데이터 (ID) 에 관련지은 데이터인 학습 데이터 (LD) 를 작성한다.The answer creation unit 122c stores information recording which of the objects A to C is placed at which position in the image data (ID) of the artificial mixture (MO) created in the image combining unit 122b, as the artificial mixture ( Learning data (LD), which is data related to the image data (ID) of MO), is created.
(학습부 (123))(Study Department (123))
학습부 (123) 는, 인공 지능을 갖고, 학습 데이터 작성부 (122) 에서 작성된 학습 데이터 (LD) 를 사용하여, 물체 A ∼ C 를 판별하는 방법을 학습하고, 학습 모델 (GM) 을 작성한다.The
구체적으로는, 먼저, 학습 데이터 (LD) 중의 인공적인 혼합물 (MO) 의 화상 데이터 (ID) 에 비치는 각 물체가 물체 A 일 확률을 산출한다. 마찬가지로, 물체 B 일 확률 및 물체 C 일 확률을 산출한다 (이들의 산출한 확률을, 이하에서는 인식률 (RR) 이라고 한다. 또, 인식률 (RR) 은, 특허청구범위에 있어서의 「제 2 인식률」의 일례에 대응한다.). 다음으로, 각 물체를, 물체 A ∼ C 의 인식률 (RR) 중 가장 높았던 종류의 물체라고 예상하고, 해답 작성부 (122c) 에서 관련지어진 정보에 기초하여 예상이 맞았는지 여부를 조사한다. 이것을 반복하여 얻어진 지식이나 경험을 데이터화한 것인 학습 모델 (GM) 을 작성하고, 보존한다.Specifically, first, the probability that each object reflected in the image data (ID) of the artificial mixture (MO) in the learning data (LD) is object A is calculated. Similarly, the probability of object B and the probability of object C are calculated (the calculated probabilities are hereinafter referred to as recognition rate (RR). Additionally, recognition rate (RR) is the "second recognition rate" in the scope of the patent claims. corresponds to an example of ). Next, each object is predicted to be the type of object with the highest recognition rate (RR) among objects A to C, and it is checked whether the prediction was correct based on the related information in the answer creation unit 122c. By repeating this, a learning model (GM), which is a data conversion of the knowledge and experience obtained, is created and saved.
(선별 대상 선택부 (124))(Selection target selection section (124))
선별 대상 선택부 (124) 는, 유저가 물체 A ∼ C 중에서 선택한 선별 대상물 (SO) 의 정보를 학습 모델 (GM) 에 관련지은 데이터인 레시피 (RE) 를 작성하고, 보존한다. 운전 모드에 있어서, 유저에게 선택된 레시피 (RE) 는 판단부 (125) 에 판독 출력된다.The selection object selection unit 124 creates and stores a recipe (RE), which is data that relates information on the selection object (SO) selected by the user from objects A to C to the learning model (GM). In the operation mode, the recipe (RE) selected by the user is read and output to the judgment unit 125.
이상과 같이, 선별 장치 (1) 는, 학습부 (123) 에는 물체 A ∼ C 를 판별하는 방법을 학습시켜, 선별 대상물 (SO) 이 어느 것인지는 학습시키지 않는 양태이다. 이로써, 예를 들어, 선별 대상물 (SO) 을 물체 A 에서 물체 B 로 변경하고자 하는 경우라 하더라도, 선별 대상 선택부 (124) 에서 선별 대상물 (SO) 로서 물체 B 를 선택하기만 하면 되기 때문에, 학습부 (123) 에 학습을 다시 시킬 필요가 없다. 또한, 학습부 (123) 에 학습시키기 전에, 선별 대상물 (SO) 을 선택하는 양태로 해도 된다.As described above, the
(임계값 설정부 (126))(Threshold setting unit 126)
임계값 설정부 (126) 는, 선별 대상물 (SO) 의 인식률 (RR) 에 대해 임계값을 설정한다. 설정된 임계값의 정보는, 제 2 제어부 (141) 로 송신되어, 선별 대상물 (SO) 을 선별할 때에 참조된다 (상세한 내용은 후술한다.). 또한, 임계값은 반드시 설정하지는 않아도 된다.The threshold setting unit 126 sets a threshold for the recognition rate (RR) of the selection object (SO). Information on the set threshold value is transmitted to the
(판단부 (125))(Judgment Department (125))
판단부 (125) 는, 인공 지능을 갖고, 운전 모드 (OM) 에 있어서, 선별 대상 선택부 (124) 로부터 레시피 (RE) 를 판독 출력하고, 이 레시피 (RE) 에 기초하여, 라인 센서 카메라 (11) 에서 작성되고, 송신된 혼합물 (MO) 의 화상 데이터 (ID) 중에서, 물체 A 의 유무를 판단하고, 물체 A 가 있는 경우에는, 그 픽셀 단위의 위치의 정보를 제 2 제어부 (141) 에 송신한다.The judgment unit 125 has artificial intelligence, reads and outputs a recipe (RE) from the selection object selection unit 124 in the operation mode (OM), and based on this recipe (RE), selects a line sensor camera ( 11) Among the image data (ID) of the mixture (MO) created and transmitted, the presence or absence of object A is determined, and if object A is present, the pixel-unit position information is sent to the
물체 A 의 유무의 판단은, 학습부 (123) 와 마찬가지로, 각 물체의 물체 A ∼ C 의 인식률 (RR) 을 산출하고, 물체 A 의 인식률 (RR) 이 가장 높았던 물체를 물체 A 라고 판단한다. 또한, 마찬가지로, 물체 B 의 인식률 (RR) 이 가장 높았던 물체는 물체 B 라고 판단하고, 물체 C 의 인식률 (RR) 이 가장 높았던 물체는 물체 C 라고 판단한다.To determine the presence or absence of object A, similarly to the
(컨베이어 (13))(Conveyor (13))
컨베이어 (13) 는, 라인 센서 카메라 (11) 의 촬상 범위를 통과하여, 에어 분사 노즐 (14) 의 위치로 물체를 흐르게 하여 이동시키는 부재이다. 컨베이어 (13) 는, 소정의 속도로 물체를 이동시킨다. 또, 컨베이어 (13) 에는 인코더 (131) 가 형성되고, 인코더 (131) 는 컨베이어 (13) 가 소정 거리 이동할 때마다 라인 센서 카메라 (11), 제 1 제어부 (12) 및 제 2 제어부 (141) 에 펄스를 송신한다. 라인 센서 카메라 (11) 는, 이 펄스를 받을 때마다 촬상을 실시한다. 즉, 라인 센서 카메라 (11) 에 의해 촬상되는 화상 데이터 (ID) 의 1 픽셀은 소정 거리에 상당한다. 또, 제 1 제어부 (12) 및 제 2 제어부 (141) 는, 이 펄스에 기초하여, 물체의 위치를 특정한다.The
(에어 분사 노즐 (14))(Air blowing nozzle (14))
에어 분사 노즐 (14) 은, 선별 대상물 (SO) 의 인식률 (RR) 이 임계값 설정부 (126) 에서 설정된 임계값 이상인 선별 대상물 (SO) 에 대해 압축 공기를 내보내어, 선별 대상물 (SO) 을 선별하는 부재이다. 선별 장치 (1) 는, 복수의 에어 분사 노즐 (14) 이, 컨베이어 (13) 의 폭 방향 전체에 미소 간격으로 배치된다. 상기 구성에 의해, 인식률 (RR) 과 유저가 설정할 수 있는 임계값을 서로 연결시켜 선별 대상을 판단하기 때문에, 인공 지능을 이용하면서도, 선별 정밀도를 유저가 컨트롤할 수 있게 되어, 선별 정밀도에 대한 유저의 요구에 따른 선별이 가능해진다. 구체적으로, 임계값을 낮게 설정하면 대략적인 분류가 가능하고, 임계값을 높게 설정하면 원하는 물체만을 고정밀도로 추출할 수 있다. 또한, 선별하는 대상은, 선별 대상물 (SO) 의 인식률 (RR) 이 임계값 설정부 (126) 에서 설정된 임계값 이상인 선별 대상물 (SO) 에 한정되지 않는다. 예를 들어, 선별 대상물 (SO) 의 인식률 (RR) 이 임계값 설정부 (126) 에서 설정된 임계값보다 큰 선별 대상물 (SO) 을 선별하는 양태로 해도 된다. 또, 상한과 하한의 임계값을 설정하여, 그 사이의 인식률 (RR) 의 선별 대상물 (SO) 을 선별하는 양태로 해도 되고, 임계값을 설정하지 않고, 모든 선별 대상물 (SO) 을 선별하는 양태로 해도 된다. 게다가 또한, 선별 대상물 (SO) 이외에 대해 압축 공기를 내보내어, 선별 대상물 (SO) 을 선별하는 양태로 해도 된다.The
또, 에어 분사 노즐 (14) 은, 제 2 제어부 (141) 로부터, 압축 공기를 분사하는 타이밍인 분사 타이밍을 지시받는다. 구체적으로 제 2 제어부는, 먼저, 도 7 에 나타내는 바와 같이, 판단부 (125) 로부터 송신된 물체 A 의 위치 정보에 기초하여, 압축 공기를 분사하는 분사 영역 (IR) 을 설정한다. 다음으로, 에어 분사 노즐 (14) 마다 분사 영역 (IR) 에 기초하여 분사 타이밍을 설정한다. 분사 타이밍은, 컨베이어 (13) 의 진행 방향에 대해 소정의 시간 간격으로 형성된다. 즉, 도 7 에 나타내는 혼합물 (MO) 의 화상 데이터 (ID) 를 예로 하여 생각하면, 화상 데이터 (ID) 의 상단부가 에어 분사 노즐 (14) 의 위치에 도달한 시간 T0 을 기준으로, d ∼ h 열의 에어 분사 노즐 (14) 에 대해, 에어 분사 노즐 (14) 이 분사 영역 (IR) 을 통과하는 타이밍에 압축 공기를 분사하도록 지시한다.Additionally, the
에어 분사 노즐 (14) 에 의해 압축 공기가 분사된 물체 A 는, 컨베이어 (13) 의 하부에 배치되고, 선별되는 재질의 종류마다 형성된 회수 호퍼 (3) 의 호퍼 (31) 에 의해 회수된다. 에어 분사 노즐 (14) 에 의해 압축 공기가 분사되지 않는 물체 B, 물체 C 는, 호퍼 (32) 에 의해 회수된다.The object A, to which compressed air has been blown by the
(컨트롤러 (15))(Controller (15))
컨트롤러 (15) 는, 터치 패널식의 컨트롤러로서, 유저는, 컨트롤러 (15) 를 사용함으로써, 선별 장치 (1) 를 용이하게 조작할 수 있다. 컨트롤러 (15) 는, 모드 전환 버튼 (15a) (특허청구범위에 있어서의 「모드 전환 지시부」의 일례에 대응한다.), 촬상 버튼 (15b) (특허청구범위에 있어서의 「데이터 취득 지시부」의 일례에 대응한다.), 학습 데이터 작성 버튼 (15c) (특허청구범위에 있어서의 「학습 데이터 작성 지시부」의 일례에 대응한다.), 학습 개시 버튼 (15d) (특허청구범위에 있어서의 「학습 개시 지시부」의 일례에 대응한다.), 선별 대상 선택 버튼 (15e) (특허청구범위에 있어서의 「선별 대상 선택 지시부」의 일례에 대응한다.), 임계값 설정 버튼 (15h) (특허청구범위에 있어서의 「임계값 설정부」의 일례에 대응한다.), 운전 개시 버튼 (15f) (특허청구범위에 있어서의 「운전 개시 지시부」의 일례에 대응한다.) 및 운전 종료 버튼 (15g) 을 구비한다.The
(선별 장치 (1) 의 조작 방법)(How to operate the sorting device (1))
이하에서 컨트롤러 (15) 를 사용하여 선별 장치 (1) 를 조작하는 방법에 대하여 설명한다.Hereinafter, a method of operating the
(학습 모드 (LM) 에 있어서의 조작 방법)(Operation method in learning mode (LM))
학습 모드 (LM) 에 있어서의, 선별 장치 (1) 의 조작 방법에 대하여 도 8 의 기능 블록도, 도 9 의 플로 차트 및 도 10 ∼ 도 17 의 컨트롤러 (15) 에 표시되는 화면의 설명도에 기초하여 설명한다.The operating method of the
먼저, 스텝 ST101 에서 모드 전환 버튼 (15a) 을 사용하여, 선별 장치 (1) 를 학습 모드 (LM) 로 전환한다. 선별 장치 (1) 를 기동시켰을 때, 컨트롤러 (15) 에는 도 10 에 나타내는 화면이 표시되기 때문에, 학습 모드 버튼 (151a) 을 누름으로써 선별 장치 (1) 를 학습 모드 (LM) 로 전환하여, 컨트롤러 (15) 에 도 11 에 나타내는 화면이 표시된다.First, in step ST101, the mode switching button 15a is used to switch the
다음으로, 스텝 ST102 에서 라인 센서 카메라 (11) 에 물체 A ∼ C 의 화상 데이터 (ID) 및 배경 화상 (BI) 을 작성시킨다. 유저는, 복수의 물체 A 를 컨베이어에 흐르게 하고, 도 11 에 나타나는 화면에 있어서의 촬상 버튼 (15b) 을 누르면 라인 센서 카메라 (11) 는 촬상을 개시하고, 물체 A 의 화상 데이터 (ID) 를 작성한다. 물체 A 의 화상 데이터 (ID) 의 취득이 완료되면, 컨트롤러 (15) 에는, 도 12 에 나타내는 화면이 표시되기 때문에, 유저는 명칭 입력부 (151b) 에 물체 A 의 명칭을 입력하고, 기억부 (121) 에 보존한다. 물체 A 의 보존이 완료되면, 컨트롤러 (15) 에는 다시 도 11 의 화면이 표시되기 때문에, 유저는, 동일한 순서로, 물체 B, C 및 배경 화상 (BI) 의 촬영을 실시한다.Next, in step ST102, the
이어서, 스텝 ST103 에서 학습 데이터 작성부에 학습 데이터 (LD) 를 작성시킨다. 유저가, 도 11 에 나타나는 화면에 있어서의 학습 데이터 작성 버튼 (15c) 을 누르면, 컨트롤러 (15) 에는 도 13 에 나타내는 화면이 표시된다. 유저는, 물체 선택 버튼 (151c) 을 누름으로써 도 14 에 나타내는 바와 같이 표시되는 기억부 (121) 에 보존된 물체의 명칭의 일람으로부터, 학습 데이터 (LD) 의 작성에 사용하는 물체 (본 설명의 경우에는 「물체 A」, 「물체 B」, 「물체 C」) 를 선택한다. 선택을 완료하면, 컨트롤러 (15) 에는 다시 도 13 에 나타내는 화면이 표시되기 때문에, 데이터수 입력부 (152c) 에 작성하는 학습 데이터 (LD) 의 수를 입력한다. 입력이 완료되면, 컨트롤러 (15) 에는 도 15 에 나타내는 바와 같이, 유저에게 학습 데이터 (LD) 의 작성이 완료될 때까지의 예상 시간을 나타내는 대기 화면이 표시된다. 학습 데이터 (LD) 의 작성이 완료되면, 컨트롤러 (15) 에는 도 11 에 나타내는 화면이 표시된다.Next, in step ST103, the learning data (LD) is created in the learning data creation unit. When the user presses the learning
마지막으로, 스텝 ST104 에서 학습부 (123) 에 학습 데이터 (LD) 를 사용하여 학습시켜, 학습 모델 (GM) 을 작성시킨다. 유저가, 도 11 에 나타나는 화면에 있어서의 학습 개시 버튼 (15d) 을 누르면, 컨트롤러 (15) 에는 도 16 에 나타내는 화면이 표시된다. 유저는, 도 16 에 나타내는 바와 같이 표시되는 학습 데이터 작성부 (122) 에 보존된 학습 데이터 (LD) 의 일람 (학습 데이터 (LD) 의 작성에 사용된 물체의 명칭이 표시된다.) 으로부터, 학습부 (123) 의 학습에 사용하는 학습 데이터 (LD) (본 설명의 경우에는 「물체 A, 물체 B, 물체 C」) 를 선택한다. 선택을 완료하면, 컨트롤러 (15) 에는 도 17 에 나타내는 바와 같이, 유저에게 학습 모델 (GM) 의 작성이 완료될 때까지의 예상 시간을 나타내는 대기 화면이 표시된다. 학습 모델 (GM) 의 작성이 완료되면, 컨트롤러 (15) 에는 도 11 에 나타내는 화면이 표시된다.Finally, in step ST104, the
(운전 모드 (OM) 에 있어서의 조작 방법)(Operation method in operation mode (OM))
운전 모드 (OM) 에 있어서의, 선별 장치 (1) 의 조작 방법에 대하여 도 8 의 기능 블록도, 도 18 의 플로 차트 및 도 19 ∼ 도 21 의 컨트롤러 (15) 에 표시되는 화면의 설명도에 기초하여 설명한다.The operating method of the
먼저, 스텝 ST201 에서 모드 전환 버튼 (15a) 을 사용하여, 선별 장치 (1) 를 운전 모드 (OM) 로 전환한다. 선별 장치 (1) 를 기동시켰을 때, 컨트롤러 (15) 에는 도 10 에 나타내는 화면이 표시되기 때문에, 운전 모드 버튼 (152a) 을 누름으로써 선별 장치 (1) 는 운전 모드 (OM) 로 전환되어, 컨트롤러 (15) 에 도 19 에 나타내는 화면이 표시된다.First, in step ST201, the mode switching button 15a is used to switch the
다음으로, 스텝 ST202 에서 선별 대상물 (SO) 로 물체 A 를 선택하고, 선별 대상 선택부 (124) 에 레시피 (RE) 를 작성시킨다. 유저가, 도 19 에 나타나는 화면에 있어서의 선별 대상 선택 버튼 (15e) 을 누르면, 컨트롤러 (15) 에는 도 20 에 나타내는 화면이 표시된다. 유저는, 도 20 에 나타내는 바와 같이 표시되는 학습부 (123) 에 보존된 학습 모델 (GM) 의 일람 (학습 모델 (GM) 의 작성에 사용된 물체의 명칭이 표시된다.) 으로부터, 판별에 사용할 학습 모델 (GM) (이 실시예의 경우에는 「물체 A, 물체 B, 물체 C」) 을 선택한다. 선택을 완료하면, 컨트롤러 (15) 에는 도 21 에 나타내는 화면이 표시된다. 유저는, 도 21 에 나타내는 바와 같이 표시되는 선택한 학습 모델 (GM) 의 작성에 사용된 물체의 일람으로부터, 선별 대상물 (SO) (본 설명의 경우에는 「물체 A」) 을 선택한다. 선택을 완료하면, 선별 대상 선택부 (124) 는 레시피 (RE) 를 작성하고, 컨트롤러 (15) 에는 도 19 에 나타내는 화면이 표시된다.Next, in step ST202, object A is selected as the selection object SO, and a recipe RE is created in the selection object selection unit 124. When the user presses the selection
이어서, 스텝 ST203 에서 선별 대상물 (SO) 의 인식률 (RR) 에 대해 임계값을 설정시킨다. 유저가, 도 19 에 나타나는 화면에 있어서의 임계값 설정 버튼 (15h) 을 누르면, 컨트롤러 (15) 에는 도 22 에 나타내는 화면이 표시되기 때문에, 임계값 입력부 (151h) 에 원하는 임계값을 입력한다. 입력이 완료되면, 임계값 설정부 (126) 는, 임계값의 정보를 제 2 제어부 (141) 에 송신하고, 컨트롤러 (15) 에는 도 19 에 나타내는 화면이 표시된다.Next, in step ST203, a threshold value is set for the recognition rate (RR) of the selection object (SO). When the user presses the threshold
또한, 임계값 입력부 (151h) 에 원하는 임계값을 입력하지 않은 경우에는, 임계값을 설정하지 않은 것으로 판단하여 모든 선별 대상물 (SO), 요컨대, 선별 대상물 (SO) 에 설정한 물체의 인식률 (RR) 이 가장 높았던 물체 전부를 선별한다. 또, 유저가 임계값을 설정하는 수단은 컨트롤러 (15) 의 터치 패널에 표시되는 임계값 설정 버튼 (15h) 에 한정되지 않는다. 예를 들어, 임계값 설정 버튼 (15h) 대신에 터치 패널에 시크 바를 표시하고, 그 시크 바를 사용하여 임계값의 설정을 실시할 수 있도록 구성해도 된다. 부언하면, 임계값을 설정하는 수단은 터치 패널을 사용한 것에 한정되지 않고, 예를 들어, 버튼이나 로터리 스위치 등을 컨트롤러 (15) 에 형성하여, 이것들에 의해 임계값의 설정을 할 수 있도록 구성해도 되고, 전술한 임계값을 설정하는 수단을 병용하는 양태여도 된다. 게다가 또한, 임계값의 설정은, 스텝 ST203 뿐만 아니라, 후술하는 스텝 ST204 에서 실시할 수 있도록 해도 된다. 이 구성에 의하면, 유저는, 실제의 선별 결과를 확인하고, 임계값을 미조정할 수도 있다. 이 때, 임계값을 설정하는 수단이 전술한 시크 바나 로터리 스위치를 사용한 것이라면, 감각적으로 조작하는 것이 가능해져, 미조정에 바람직하다.In addition, when the desired threshold value is not input to the
이어서, 스텝 ST204 에서 물체 A 를 선별시킨다. 유저는, 혼합물 (MO) 을 컨베이어에 흐르게 하고, 도 19 에 나타나는 화면에 있어서의 운전 개시 버튼 (15f) 을 누르면, 라인 센서 카메라 (11) 는 촬상을 개시하고, 판단부 (125) 는 물체 A 의 유무 및 물체 A 의 픽셀 단위의 위치를 판단하고, 이 판단에 기초하여, 에어 분사 노즐 (14) 은 물체 A 를 선별한다.Next, object A is selected in step ST204. When the user flows the mixture MO on the conveyor and presses the
마지막으로, 스텝 ST205 에서, 운전 종료 버튼 (15g) 을 눌러, 선별을 종료시킨다.Finally, in step ST205, the
또한, 컨트롤러 (15) 의 양태나 화면의 표시는 전술한 것에 한정되지 않고, 유저가 선별 장치 (1) 를 용이하게 조작할 수 있도록 적절히 변경해도 된다. 예를 들어, 누름 버튼을 사용한 컨트롤러 (15) 여도 되고, 이 경우, 모드 전환 버튼 (15a) 은 불필요하다. 또, 모드 전환 버튼 (15a) 을 형성하지 않고, 한 화면에 모든 버튼을 표시하는 양태로 해도 된다. 또, 컨트롤러 (15) 에, 유저에 대해 다음 조작을 지시하는 표시를 해도 된다.In addition, the mode of the
또, 전술한 실시형태에서는, 각각의 버튼에 각각 다른 기능을 갖게 하고 있지만, 각각의 기능이 연동되거나, 소정의 버튼이 여러 가지의 기능을 겸용하도록 해도 된다. 예를 들어, 학습 데이터 작성 버튼 (15c) 을 누름으로써, 학습 데이터 (LD) 를 작성함과 함께, 그 학습 데이터에 기초하여 학습 모델 (GM) 을 작성하도록 해도 된다. 또, 예를 들어, 운전 개시 버튼 (15f) 이 운전 종료를 지시하는 기능을 겸하고 있어, 1 회째의 운전 개시 버튼 (15f) 의 누름에 의해 운전이 개시되고, 2 회째의 누름에 의해 운전이 종료되도록 해도 된다. 또, 전술한 실시형태에서는, 물체 A 를 선별 대상으로 하여 설명하고 있지만, 복수의 물체를 선별 대상으로 하고, 그에 따라 에어 분사 노즐이나 호퍼를 복수 개 형성하도록 해도 된다.Additionally, in the above-described embodiment, each button is provided with a different function, but each function may be linked, or a given button may serve multiple functions. For example, by pressing the learning
이상 설명한 바와 같이, 본 발명을 적용한 선별 장치 (1) 는, 인공 지능을 이용하여 혼합물 (MO) 의 촬상 데이터로부터 선별 대상물 (SO) 의 유무 및 위치를 판단할 수 있기 때문에, 물체를 선별하는 기준이나 알고리즘의 설정이 불필요한 것에 더하여, 컨트롤러 (15) 에 표시되는 각종 버튼을 사용하여, 임계값을 설정하는 공정을 포함하여, 용이하게 조작할 수 있다. 또, 혼합물의 각 물체가 선별 대상물일 확률을 나타내는 인식률을 인공 지능에 산출시켜, 그 인식률과 유저가 설정할 수 있는 임계값을 서로 연결시켜 선별 대상을 판단하기 때문에, 선별 정밀도를 유저가 컨트롤할 수 있다.As described above, the
따라서, 본 발명에 의하면, 번잡한 설정 작업의 대부분을 인공 지능이 실시하게 할 수 있는 것에 더하여, 조작부에 의해 간단하게 조작할 수 있음으로써, 유저가 전문적인 기술이나 지식을 가지고 있지 않더라도, 선별 대상물 (SO) 을 선별하기 위한 설정을 용이하게 실시할 수 있다.Therefore, according to the present invention, in addition to having artificial intelligence perform most of the complicated setting work, it can be easily operated by the operation panel, so that the user can select the sorting target even if he or she does not have specialized skills or knowledge. Settings for selecting (SO) can be easily performed.
산업상 이용가능성Industrial applicability
본 발명에 관련된 선별 장치, 선별 방법 및 선별 프로그램 그리고 컴퓨터로 판독 가능한 기록 매체 또는 기억한 기기는, 물체를 2 이상의 종류로 선별하는 용도에 적용할 수 있다.The sorting device, sorting method, sorting program, and computer-readable recording medium or storage device related to the present invention can be applied to the purpose of sorting objects into two or more types.
1 : 선별 장치
11 : 라인 센서 카메라
11a : X 방향 촬상 범위 ; 11b, 11c : 제외 범위 ; 11d : X 방향 유효 범위 ; 11e : X 방향 범위 ; 11f : Y 방향 범위 ; 11g : 중복 범위
12 : 제 1 제어부
121 : 기억부
122 : 학습 데이터 작성부 ; 122a : 화상 추출부 ; 122b : 화상 합성부 ; 122c : 해답 작성부
123 : 학습부
124 : 종류 선택부
126 : 임계값 설정부
125 : 판단부
13 : 컨베이어
131 : 인코더
14 : 에어 분사 노즐
141 : 제 2 제어부
15 : 컨트롤러
15a : 모드 전환 버튼 ; 151a : 학습 모드 버튼 ; 152a : 운전 모드 버튼
15b : 촬상 버튼 ; 151b : 명칭 입력부
15c : 학습 데이터 작성 버튼 ; 151c : 물체 선택 버튼 ; 152c : 데이터수 입력부
15d : 학습 개시 버튼
15e : 선별 대상 선택 버튼
15h : 임계값 설정 버튼 ; 151h : 임계값 입력부
15f : 운전 개시 버튼
15g : 운전 종료 버튼
2 : 공급 장치
21 : 투입 호퍼 ; 22 : 이송 컨베이어 ; 23 : 투입 피더
3 : 회수 호퍼
31, 32 : 호퍼
MO : 혼합물
SO : 선별 대상물
ID : 화상 데이터
LD : 학습 데이터
SD : 추출 화상 데이터
BI : 배경 화상
GM : 학습 모델
RE : 레시피
RR : 인식률
IR : 분사 영역
LM : 학습 모드
OM : 운전 모드1: Sorting device
11: Line sensor camera
11a: X-direction imaging range; 11b, 11c: Exclusion range; 11d: Effective range in X direction; 11e: X direction range; 11f: Y direction range; 11g: Overlapping ranges
12: first control unit
121: memory unit
122: Learning data creation unit; 122a: image extraction unit; 122b: Image synthesis section; 122c: Answer writing section
123: Learning Department
124: Type selection unit
126: Threshold value setting unit
125: Judgment unit
13: Conveyor
131: encoder
14: Air injection nozzle
141: second control unit
15: controller
15a: Mode switching button; 151a: Learning mode button; 152a: Driving mode button
15b: imaging button; 151b: Name input unit
15c: Create learning data button; 151c: object selection button; 152c: Data number input unit
15d: Start learning button
15e: Screening target selection button
15h: Threshold setting button; 151h: Threshold input unit
15f: Operation start button
15g: End operation button
2: Supply device
21: Input hopper; 22: transfer conveyor; 23: Input feeder
3: Recovery hopper
31, 32: Hopper
MO: mixture
SO: Sorting object
ID: image data
LD: training data
SD: Extracted image data
BI: Background image
GM: learning model
RE: Recipe
RR: Recognition rate
IR: Injection area
LM: Learning mode
OM: driving mode
Claims (23)
종류별로 분별된 상기 물체인 종별 물체 또는 상기 혼합물에 기초하는 데이터를 취득하는 데이터 취득부와,
상기 데이터 취득부에 의해 취득된 상기 종별 물체의 데이터로부터 학습 데이터를 작성하는 학습 데이터 작성부와,
상기 학습 데이터 작성부에 의해 작성된 학습 데이터를 사용하여 혼합물을 종류별로 분별하고, 종별 물체로 하는 방법을 학습하고, 그 학습에 의해 얻어진 지식 및 경험을 데이터화한 학습 모델을 작성하는 학습부와,
상기 종별 물체 중에서 상기 선별 대상물의 종류를 선택하는 선별 대상 선택부와,
상기 학습부에서 작성된 학습 모델에 기초하여, 상기 데이터 취득부에서 취득한 혼합물의 촬상 데이터로부터 상기 선별 대상 선택부에서 선택된 종류의 선별 대상물의 유무 및 위치를 판단하는 판단부와,
상기 판단부의 판단 결과에 기초하여 상기 혼합물 중에서 상기 선별 대상물을 선별하는 선별부와,
상기 각 부에 대해, 유저로부터의 조작을 받아 지시를 주는 조작부를 구비하는 선별 장치.A sorting device that selects a sorting object from a mixture consisting of a plurality of types of objects, comprising:
a data acquisition unit that acquires data based on the type object or the mixture, which is the object classified by type;
a learning data creation unit that creates learning data from data on the type of object acquired by the data acquisition unit;
A learning unit that uses the learning data created by the learning data creation unit to learn how to classify mixtures by type and make objects by type, and to create a learning model that converts the knowledge and experience obtained through the learning into data;
a sorting object selection unit that selects a type of the sorting object from among the types of objects;
A determination unit that determines the presence or absence and location of a selection object of the type selected in the selection object selection unit from the imaging data of the mixture acquired by the data acquisition unit, based on the learning model created in the learning unit;
a sorting unit that selects the sorting object from the mixture based on the judgment result of the judging part;
A sorting device comprising an operation unit that receives operations from a user and gives instructions to each of the above units.
상기 조작부가,
상기 데이터 취득부에 데이터의 취득을 지시하는 데이터 취득 지시부와,
상기 학습 데이터 작성부에 상기 학습 데이터의 작성 개시를 지시하는 학습 데이터 작성 지시부와,
상기 학습부에 상기 학습 모델의 작성을 지시하는 학습 개시 지시부와,
상기 선별 대상 선택부에 상기 선별 대상물의 종류의 선택을 지시하는 선별 대상 선택 지시부와,
상기 판단부에 상기 선별 대상물의 유무 및 위치를 판단하게 하고, 상기 선별부에, 그 판단 결과에 기초하여 상기 혼합물 중에서 상기 선별 대상물을 선별하게 하는 운전 개시 지시부를 구비하는 것을 특징으로 하는 선별 장치.According to claim 1,
The control unit,
a data acquisition instruction unit that instructs the data acquisition unit to acquire data;
a learning data creation instruction unit instructing the learning data creation unit to start creation of the learning data;
a learning start instruction unit instructing the learning unit to create the learning model;
a selection object selection instruction unit that instructs the selection object selection unit to select a type of the selection object;
A sorting device characterized by comprising an operation start instruction unit that causes the determination unit to determine the presence or absence and location of the sorting object, and causes the sorting unit to select the sorting object from the mixture based on the determination result.
상기 조작부가, 적어도 상기 데이터 취득 지시부, 학습 데이터 작성 지시부 및 학습 개시 지시부를 표시하는 학습 모드와, 적어도 상기 운전 개시 지시부를 표시하는 운전 모드를 포함하는 모드 전환 조작을 지시하는 모드 전환 지시부를 구비하는 것을 특징으로 하는 선별 장치.According to claim 2,
The operation unit includes a learning mode that displays at least the data acquisition instruction section, the learning data creation instruction section, and the learning start instruction section, and a mode change instruction section that instructs a mode change operation including at least a driving mode that displays the driving start instruction section. A sorting device characterized in that.
데이터 취득 지시부로부터의 조작을 받아, 종류별로 분별된 상기 물체인 종별 물체 또는 상기 혼합물에 기초하는 데이터를 취득하는 데이터 취득 공정과,
학습 데이터 작성 지시부로부터의 조작을 받아, 상기 데이터 취득 공정에서 취득한 상기 종별 물체의 데이터로부터 학습 데이터를 작성하는 학습 데이터 작성 공정과,
학습 개시 지시부로부터의 조작을 받아, 상기 학습 데이터 작성 공정에서 작성한 학습 데이터를 사용하여 혼합물을 종류별로 분별하고, 종별 물체로 하는 방법을 학습하고, 그 학습에 의해 얻어진 지식 및 경험을 데이터화한 학습 모델을 작성하는 학습 공정과,
선별 대상 선택 지시부로부터의 조작을 받아, 상기 종별 물체 중에서 상기 선별 대상물의 종류를 선택하는 선별 대상 선택 공정과,
운전 개시 지시부로부터의 조작을 받아, 상기 학습 공정에서 작성한 학습 모델에 기초하여, 상기 데이터 취득 공정에서 취득한 혼합물의 데이터로부터 상기 선별 대상 선택 공정에서 선택된 종류의 선별 대상물의 유무 및 위치를 판단하고, 그 판단 결과에 기초하여 상기 혼합물 중에서 상기 선별 대상물을 선별하는 운전 공정을 포함하는 선별 방법.A screening method for selecting a screening object from a mixture consisting of a plurality of types of objects, comprising:
A data acquisition step of receiving an operation from a data acquisition instruction unit and acquiring data based on the type object or the mixture, which is the object classified by type;
A learning data creation step of receiving an operation from a learning data creation instruction unit and creating learning data from the data of the type object acquired in the data acquisition step;
A learning model that receives an operation from the learning start instruction unit, uses the learning data created in the learning data creation process above, learns how to classify mixtures into types and make objects by type, and converts the knowledge and experience obtained through the learning into data. A learning process to create,
A sorting object selection step of receiving an operation from a sorting object selection instruction unit and selecting a type of the sorting object from the type objects;
Upon receiving an operation from the operation start instruction unit, based on the learning model created in the learning process, the presence and position of a sorting object of the type selected in the sorting object selection process is determined from the mixture data acquired in the data acquisition process, A selection method comprising an operation process of selecting the selection object from the mixture based on the judgment result.
데이터 취득 지시부로부터의 조작을 받아, 종류별로 분별된 상기 물체인 종별 물체 또는 상기 혼합물에 기초하는 데이터를 취득하는 기능과,
학습 데이터 작성 지시부로부터의 조작을 받아, 상기 취득한 상기 종별 물체의 촬상 데이터로부터 학습 데이터를 작성하는 기능과,
학습 개시 지시부로부터의 조작을 받아, 상기 작성한 학습 데이터를 사용하여 혼합물을 종류별로 분별하고, 종별 물체로 하는 방법을 학습하고, 그 학습에 의해 얻어진 지식 및 경험을 데이터화한 학습 모델을 작성하는 기능과,
선별 대상 선택 지시부로부터의 조작을 받아, 상기 종별 물체 중에서 상기 선별 대상물의 종류를 선택하는 기능과,
운전 개시 지시부로부터의 조작을 받아, 상기 작성한 학습 모델에 기초하여, 상기 취득한 혼합물의 데이터로부터 상기 선택된 종류의 선별 대상물의 유무 및 위치를 판단하고, 그 판단 결과에 기초하여 상기 혼합물 중에서 상기 선별 대상물을 선별하는 기능을 컴퓨터에 실현시키는 기록 매체에 격납된 선별 프로그램.A selection program stored in a recording medium for selecting a selection object from a mixture consisting of a plurality of types of objects, comprising:
A function to receive an operation from a data acquisition instruction unit and acquire data based on the type object or the mixture, which is the object classified by type;
A function to receive an operation from a learning data creation instruction unit and create learning data from the acquired imaging data of the object of the type;
A function to receive an operation from the learning start instruction unit, use the learning data created above to learn how to classify mixtures into types and make objects by type, and create a learning model that converts the knowledge and experience obtained through the learning into data; ,
A function to receive an operation from a selection object selection instruction unit and select a type of the object to be sorted from among the objects of each type;
Upon receiving an operation from the operation start instruction unit, based on the learning model created above, the presence and position of the selected type of selection object is judged from the data of the obtained mixture, and based on the judgment result, the selection object is selected from the mixture. A selection program stored in a recording medium that enables the computer to perform the selection function.
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018085343A JP7072435B2 (en) | 2018-04-26 | 2018-04-26 | Sorting equipment, sorting methods and programs, and computer-readable recording media |
JPJP-P-2018-085343 | 2018-04-26 | ||
JP2018097254A JP6987698B2 (en) | 2018-05-21 | 2018-05-21 | Sorting equipment, sorting methods and programs, and computer-readable recording media |
JPJP-P-2018-097254 | 2018-05-21 | ||
PCT/JP2019/017853 WO2019208754A1 (en) | 2018-04-26 | 2019-04-26 | Sorting device, sorting method and sorting program, and computer-readable recording medium or storage apparatus |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20210002444A KR20210002444A (en) | 2021-01-08 |
KR102687766B1 true KR102687766B1 (en) | 2024-07-23 |
Family
ID=68294682
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020207018659A Active KR102687766B1 (en) | 2018-04-26 | 2019-04-26 | Sorting devices, screening methods and screening programs, and computer-readable recording media or storage devices |
Country Status (3)
Country | Link |
---|---|
KR (1) | KR102687766B1 (en) |
CN (1) | CN111819598B (en) |
WO (1) | WO2019208754A1 (en) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7107331B2 (en) * | 2020-04-10 | 2022-07-27 | 株式会社椿本チエイン | Data collection method, data collection system, data collection device, data provision method, and computer program |
JP7264936B2 (en) * | 2021-04-21 | 2023-04-25 | Jx金属株式会社 | Electric/electronic component waste processing method and electric/electronic component waste processing apparatus |
CN113560198B (en) * | 2021-05-20 | 2023-03-03 | 光大环境科技(中国)有限公司 | Category sorting method and category sorting system |
CN114669493A (en) * | 2022-02-10 | 2022-06-28 | 南京搏力科技有限公司 | Automatic waste paper quality detection device and detection method based on artificial intelligence |
JP7379574B2 (en) * | 2022-03-30 | 2023-11-14 | 本田技研工業株式会社 | Pseudo defective product data generation device |
KR102650810B1 (en) * | 2023-09-27 | 2024-03-25 | 주식회사 에이트테크 | Robotic systems for separating targets from non-targets |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012115785A (en) | 2010-12-02 | 2012-06-21 | Sharp Corp | Sorting system of waste |
JP2017109197A (en) | 2016-07-06 | 2017-06-22 | ウエノテックス株式会社 | Waste screening system and screening method therefor |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2978374B2 (en) * | 1992-08-21 | 1999-11-15 | 松下電器産業株式会社 | Image processing device, image processing method, and control device for air conditioner |
JP2009282631A (en) * | 2008-05-20 | 2009-12-03 | Canon Inc | Parameter learning method and apparatus for pattern identification |
KR101717729B1 (en) * | 2012-12-17 | 2017-03-17 | 한국전자통신연구원 | Apparatus and method for recognizing human from video |
KR101782363B1 (en) * | 2016-05-23 | 2017-09-27 | (주)에이앤아이 | Vision inspection method based on learning data |
JP2018017639A (en) | 2016-07-29 | 2018-02-01 | 株式会社 深見製作所 | Surface defect inspection method and surface defect inspection apparatus |
CN107958197A (en) * | 2016-10-14 | 2018-04-24 | 松下电器(美国)知识产权公司 | Learning data makes support method |
KR102530045B1 (en) * | 2016-12-23 | 2023-05-09 | 삼성전자주식회사 | Image display device and operating method for the same |
WO2020090941A1 (en) * | 2018-10-31 | 2020-05-07 | Jx金属株式会社 | Composition analyzer of electronic/electrical equipment parts waste, treatment device of electronic/electrical equipment parts waste, and treatment method of electronic/electrical equipment parts waste |
JP7419093B2 (en) * | 2020-02-13 | 2024-01-22 | 大王製紙株式会社 | Waste plastic sorting equipment, sorting method, and sorting program |
-
2019
- 2019-04-26 WO PCT/JP2019/017853 patent/WO2019208754A1/en active Application Filing
- 2019-04-26 CN CN201980015704.7A patent/CN111819598B/en active Active
- 2019-04-26 KR KR1020207018659A patent/KR102687766B1/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012115785A (en) | 2010-12-02 | 2012-06-21 | Sharp Corp | Sorting system of waste |
JP2017109197A (en) | 2016-07-06 | 2017-06-22 | ウエノテックス株式会社 | Waste screening system and screening method therefor |
Also Published As
Publication number | Publication date |
---|---|
CN111819598B (en) | 2023-06-13 |
KR20210002444A (en) | 2021-01-08 |
WO2019208754A1 (en) | 2019-10-31 |
CN111819598A (en) | 2020-10-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102687766B1 (en) | Sorting devices, screening methods and screening programs, and computer-readable recording media or storage devices | |
US11654549B2 (en) | Display control device, display control method, computer program product, and communication system | |
JP2022036094A (en) | Selection device | |
US9094588B2 (en) | Human machine-interface and method for manipulating data in a machine vision system | |
US9766604B2 (en) | Control device, control method, computer program product, and robot control system | |
US7394926B2 (en) | Magnified machine vision user interface | |
JP2019212073A (en) | Image discriminating apparatus and method thereof | |
JP6780769B2 (en) | Learning equipment, learning methods and learning programs | |
CN105528607A (en) | Region extraction method and model training method and device | |
JP2020187656A (en) | Image inspection device | |
US11042977B2 (en) | Image inspection apparatus and setting method for image inspection apparatus | |
NL8104149A (en) | AUDIOVISUAL LEARNING SYSTEM. | |
CN101375300A (en) | Counting device for small batches | |
JP6395895B1 (en) | Video inspection recognition device | |
JP7072435B2 (en) | Sorting equipment, sorting methods and programs, and computer-readable recording media | |
JP2008092471A (en) | Interactive moving image monitoring method, interactive moving image monitoring apparatus, and interactive moving image monitoring program | |
JP2022164146A (en) | Image inspection device, image processing method, image processing program, computer-readable recording medium, and recorded equipment | |
JPWO2020213145A5 (en) | ||
KR101976493B1 (en) | Method and Apparatus for Setting Object Area for Use in Video Monitoring Device | |
WO2020012939A1 (en) | Image processing device, image processing method and image processing program | |
US20240288991A1 (en) | Machine learning based recommendations for user interactions with machine vision systems | |
JP4544117B2 (en) | Control information generator | |
Yani et al. | by HSV Colour | |
JP7556463B2 (en) | Image processing device, image processing method, and program | |
JP3998617B2 (en) | Game machine manufacturing process management system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PA0105 | International application |
Patent event date: 20200626 Patent event code: PA01051R01D Comment text: International Patent Application |
|
PG1501 | Laying open of application | ||
PA0201 | Request for examination |
Patent event code: PA02012R01D Patent event date: 20220214 Comment text: Request for Examination of Application |
|
E902 | Notification of reason for refusal | ||
PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20231029 Patent event code: PE09021S01D |
|
E701 | Decision to grant or registration of patent right | ||
PE0701 | Decision of registration |
Patent event code: PE07011S01D Comment text: Decision to Grant Registration Patent event date: 20240612 |
|
GRNT | Written decision to grant | ||
PR0701 | Registration of establishment |
Comment text: Registration of Establishment Patent event date: 20240719 Patent event code: PR07011E01D |
|
PR1002 | Payment of registration fee |
Payment date: 20240719 End annual number: 3 Start annual number: 1 |
|
PG1601 | Publication of registration |