[go: up one dir, main page]

KR102687766B1 - Sorting devices, screening methods and screening programs, and computer-readable recording media or storage devices - Google Patents

Sorting devices, screening methods and screening programs, and computer-readable recording media or storage devices Download PDF

Info

Publication number
KR102687766B1
KR102687766B1 KR1020207018659A KR20207018659A KR102687766B1 KR 102687766 B1 KR102687766 B1 KR 102687766B1 KR 1020207018659 A KR1020207018659 A KR 1020207018659A KR 20207018659 A KR20207018659 A KR 20207018659A KR 102687766 B1 KR102687766 B1 KR 102687766B1
Authority
KR
South Korea
Prior art keywords
learning
unit
selection
data
type
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
KR1020207018659A
Other languages
Korean (ko)
Other versions
KR20210002444A (en
Inventor
쇼지 오이시
히로유키 후카세
마사토 오오니시
Original Assignee
다이오세이시가부시끼가이샤
다이오 엔지니어링 가부시키가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2018085343A external-priority patent/JP7072435B2/en
Priority claimed from JP2018097254A external-priority patent/JP6987698B2/en
Application filed by 다이오세이시가부시끼가이샤, 다이오 엔지니어링 가부시키가이샤 filed Critical 다이오세이시가부시끼가이샤
Publication of KR20210002444A publication Critical patent/KR20210002444A/en
Application granted granted Critical
Publication of KR102687766B1 publication Critical patent/KR102687766B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B07SEPARATING SOLIDS FROM SOLIDS; SORTING
    • B07CPOSTAL SORTING; SORTING INDIVIDUAL ARTICLES, OR BULK MATERIAL FIT TO BE SORTED PIECE-MEAL, e.g. BY PICKING
    • B07C5/00Sorting according to a characteristic or feature of the articles or material being sorted, e.g. by control effected by devices which detect or measure such characteristic or feature; Sorting by manually actuated devices, e.g. switches
    • B07C5/34Sorting according to other particular properties
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B07SEPARATING SOLIDS FROM SOLIDS; SORTING
    • B07CPOSTAL SORTING; SORTING INDIVIDUAL ARTICLES, OR BULK MATERIAL FIT TO BE SORTED PIECE-MEAL, e.g. BY PICKING
    • B07C5/00Sorting according to a characteristic or feature of the articles or material being sorted, e.g. by control effected by devices which detect or measure such characteristic or feature; Sorting by manually actuated devices, e.g. switches
    • B07C5/36Sorting apparatus characterised by the means used for distribution
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01VGEOPHYSICS; GRAVITATIONAL MEASUREMENTS; DETECTING MASSES OR OBJECTS; TAGS
    • G01V8/00Prospecting or detecting by optical means
    • G01V8/10Detecting, e.g. by using light barriers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Geophysics (AREA)
  • General Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Image Analysis (AREA)
  • Sorting Of Articles (AREA)

Abstract

유저가, 선별 정밀도를 간단하게 설정ㆍ변경할 수 있도록 한다.
(해결 수단) 라인 센서 카메라 (11) 와 라인 센서 카메라 (11) 에 의해 취득된 종별 물체의 데이터로부터 학습 데이터 (LD) 를 작성하는 학습 데이터 작성부 (122) 와, 학습 데이터 (LD) 를 사용하여 혼합물 (MO) 을 종류별로 분별하고, 종별 물체로 하는 방법을 학습하고, 그 학습에 의해 얻어진 지식 및 경험을 데이터화한 학습 모델 (GM) 을 작성하는 학습부 (123) 와, 선별 대상물 (SO) 의 종류를 선택하는 선별 대상 선택부 (124) 와, 학습 모델 (GM) 에 기초하여, 라인 센서 카메라 (11) 에 의해 취득한 혼합물 (MO) 의 데이터로부터, 인식률 (RR) 을 산출하고, 인식률 (RR) 에 기초하여, 선별 대상물 (SO) 의 유무 및 위치를 판단하는 판단부 (125) 와, 판단부 (125) 의 판단 결과 및 인식률 (RR) 에 대해 형성되는 임계값에 기초하여 혼합물 (MO) 중에서 선별 대상물 (SO) 을 선별하는 에어 분사 노즐 (14) 을 구비한다.
Allows users to easily set and change the sorting accuracy.
(Solution) Using the line sensor camera 11 and a learning data creation unit 122 that creates learning data (LD) from the data of each type of object acquired by the line sensor camera 11, and the learning data (LD). A learning unit 123 that learns how to classify a mixture (MO) by type and make it into an object by type, and creates a learning model (GM) that converts the knowledge and experience obtained through the learning into data, and a selection object (SO) ) A recognition rate (RR) is calculated from the selection target selection unit 124 that selects the type, and the data of the mixture (MO) acquired by the line sensor camera 11 based on the learning model (GM), and the recognition rate (RR) is calculated. Based on (RR), a judgment unit 125 that determines the presence and location of the selection object (SO), and a judgment result of the judgment unit 125 and a threshold formed for the recognition rate (RR), the mixture ( It is provided with an air injection nozzle (14) for sorting the sorting object (SO) from the MO).

Description

선별 장치, 선별 방법 및 선별 프로그램 그리고 컴퓨터로 판독 가능한 기록 매체 또는 기억한 기기Sorting devices, screening methods and screening programs, and computer-readable recording media or storage devices

본 발명은 복수 종류의 물체로 구성되는 혼합물 중에서 선별 대상물을 선별하는 선별 장치, 선별 방법 및 선별 프로그램 그리고 컴퓨터로 판독 가능한 기록 매체 또는 기억한 기기에 관한 것이다.The present invention relates to a sorting device, a sorting method and a sorting program, and a computer-readable recording medium or storage device for sorting out a sorting object from a mixture consisting of a plurality of types of objects.

최근, 폐기물 등을 재자원화하여, 새로운 제품의 원료로서 이용하는 리사이클은, 환경 보호의 관점이나 기업 이미지의 향상 등의 목적에서 많은 기업에 의해 실시되고 있다.Recently, recycling of waste materials, etc. into resources and use as raw materials for new products has been implemented by many companies from the viewpoint of environmental protection and for purposes such as improving corporate image.

리사이클 분야는 다방면에 걸쳐 있는데, 예를 들어, 고지 (古紙) 를 리사이클하여 재생지를 생산하는 분야에서는, 고지 중에, 예를 들어, 라미네이트 등의 플라스틱이 혼입되면, 종이의 순도가 떨어진다는 불순물의 문제가 있다. 또, 유해 물질이 혼입되면, 이 유해 물질을 널리 확산시켜 버리게 된다. 이 때문에, 리사이클 전에, 원료로서 사용하는 물체와 불순물을 선별하는 공정이 필요해진다. 또, 예를 들어 백색의 종이와 착색된 종이를 선별하는 것과 같이, 리사이클의 용도에 따라 자유롭게 선별 대상물을 선별할 수 있을 것이 요구되고 있다.The recycling field covers many fields. For example, in the field of recycling old paper to produce recycled paper, there is a problem of impurities that the purity of the paper decreases when plastics such as laminate are mixed into the waste paper. There is. Additionally, if harmful substances are mixed, these harmful substances will spread widely. For this reason, before recycling, a process of selecting the objects used as raw materials and impurities is necessary. In addition, it is required to be able to freely sort the sorting object according to the purpose of recycling, for example, sorting white paper and colored paper.

또, 리사이클에 상관없이, 제품 제조시에 있어서, 양품과 불량품을 선별할 필요가 있기 때문에, 물체를 2 이상으로 선별하는 기술은, 제조업에 있어서 필요 불가결한 기술 중 하나라고 할 수 있다. 이러한 종류의 물체를 2 이상의 종류로 선별하는 기술은, 예를 들어, 특허문헌 1 및 특허문헌 2 에 개시되어 있다.In addition, regardless of recycling, since it is necessary to sort good products from defective products when manufacturing products, the technology for sorting objects into two or more can be said to be one of the essential technologies in the manufacturing industry. Techniques for sorting this type of object into two or more types are disclosed in, for example, Patent Document 1 and Patent Document 2.

특허문헌 1 에는, 광원과 광 센서로 이루어지는 검지 수단을 구비하고, 반사광의 휘도에 기초하여 물체를 선별하는 선별 장치에 관한 기술이 개시되어 있다.Patent Document 1 discloses a technology related to a sorting device that includes a detection means consisting of a light source and an optical sensor and sorts objects based on the brightness of reflected light.

또, 특허문헌 2 에는, 중력 센서와, 촬상 장치로서 RGB 카메라, X 선 카메라, 근적외선 카메라, 3D 카메라를 구비하고, 인공 지능에 의해 물체를 자동 선별하는 선별 장치에 관한 기술이 개시되어 있다.Additionally, Patent Document 2 discloses technology regarding a sorting device that automatically selects objects using artificial intelligence, including a gravity sensor and an RGB camera, an X-ray camera, a near-infrared camera, and a 3D camera as an imaging device.

일본 공개특허공보 2018-017639호Japanese Patent Publication No. 2018-017639 일본 공개특허공보 2017-109197호Japanese Patent Publication No. 2017-109197

그러나, 특허문헌 1 에 개시된 선별 장치는, 반사광의 휘도에 기초하여 물체를 선별하는 기준이나 알고리즘을 미리 설정해 둘 필요가 있고, 이들의 설정에 전문적인 지식이나 경험이 필요하기 때문에, 유저가 용이하게 설정이나 설정의 변경을 실시할 수 없었다.However, the sorting device disclosed in Patent Document 1 requires pre-setting standards and algorithms for sorting objects based on the brightness of reflected light, and requires specialized knowledge and experience to set these, so the user can easily use them. Settings or changes to settings could not be made.

또, 인공 지능을 이용한 특허문헌 2 에 개시된 선별 장치는, 전술한 바와 같은 설정은 필요 없기는 하지만, 미리 인공 지능에 선별하는 기준이나 방법을 학습시키는 공정이 필요하여, 유저가 용이하게 설정할 수 있는 양태로는 되어 있지 않았다.In addition, the sorting device disclosed in Patent Document 2 using artificial intelligence does not require the settings as described above, but requires a process of teaching the artificial intelligence the criteria and method for sorting in advance, so that the user can easily set it. It was not meant to be.

이와 같이, 종래의 선별 장치나 선별 방법에서는, 선별 장치에 선별 대상물을 선별시키기 위한 설정을 실시하는 것이 용이하지 않기 때문에, 유저는, 미리 선별 대상물에 따른 설정이 이루어진 선별 장치를 제공받아 운전을 실시하고 있었다. 이 때문에, 혼합물 (폐기물 등) 이나 선별 대상물이 변경이 되거나 한 경우에, 유저가 설정을 변경하고 싶어도 용이하게 변경할 수 없다는 문제가 있었다.In this way, in the conventional sorting device or sorting method, it is not easy to set the sorting device to sort the sorting object, so the user is provided with a sorting device with settings according to the sorting object in advance and operates it. was doing For this reason, when the mixture (waste, etc.) or the object to be sorted is changed, there is a problem that the user cannot easily change the settings even if he or she wants to change them.

본 발명은, 종래의 이와 같은 문제점을 감안하여 이루어진 것이다. 본 발명의 목적의 하나는, 유저가 전문적인 기술이나 지식을 가지고 있지 않더라도, 선별 대상물을 선별하기 위한 설정을 용이하게 실시할 수 있는 선별 장치, 선별 방법 및 선별 프로그램 그리고 컴퓨터로 판독 가능한 기록 매체 또는 기억한 기기를 제공하는 것에 있다.The present invention was made in consideration of such problems in the prior art. One object of the present invention is to provide a sorting device, a sorting method, a sorting program, and a computer-readable recording medium or It is about providing a device that remembers.

본 발명의 제 1 측면에 관련된 선별 장치는, 복수 종류의 물체로 구성되는 혼합물 중에서 선별 대상물을 선별하는 선별 장치로서, 종류별로 분별된 상기 물체인 종별 물체 또는 상기 혼합물에 기초하는 데이터를 취득하는 데이터 취득부와, 상기 데이터 취득부에 의해 취득된 상기 종별 물체의 데이터로부터 학습 데이터를 작성하는 학습 데이터 작성부와, 상기 학습 데이터 작성부에 의해 작성된 학습 데이터를 사용하여 혼합물을 종류별로 분별하고, 종별 물체로 하는 방법을 학습하고, 그 학습에 의해 얻어진 지식 및 경험을 데이터화한 학습 모델을 작성하는 학습부와, 상기 종별 물체 중에서 상기 선별 대상물의 종류를 선택하는 선별 대상 선택부와, 상기 학습부에서 작성된 학습 모델에 기초하여, 상기 데이터 취득부에서 취득한 혼합물의 촬상 데이터로부터 상기 선별 대상 선택부에서 선택된 종류의 선별 대상물의 유무 및 위치를 판단하는 판단부와, 상기 판단부의 판단 결과에 기초하여 상기 혼합물 중에서 상기 선별 대상물을 선별하는 선별부와, 상기 각 부에 대해, 유저로부터의 조작을 받아 지시를 주는 조작부를 구비할 수 있다.A sorting device related to the first aspect of the present invention is a sorting device that selects an object to be sorted from a mixture consisting of a plurality of types of objects, and acquires data based on the type object or the mixture, which is the object classified by type. An acquisition unit, a learning data creation unit for creating learning data from the data of the object of the type acquired by the data acquisition unit, classifying the mixture into types using the learning data created by the learning data creation unit, and classifying the mixture into types. A learning unit that learns how to use an object and creates a learning model that converts the knowledge and experience obtained through the learning into data, a selection target selection unit that selects the type of the selection object from the types of objects, and the learning unit. Based on the created learning model, a determination unit that determines the presence or absence and location of the type of selection object selected in the selection object selection unit from the imaging data of the mixture acquired by the data acquisition unit, and the mixture based on the judgment result of the determination unit It may be provided with a selection unit that selects the selection object from among the selection units, and an operation unit that receives operations from the user and gives instructions to each unit.

상기 구성에 의하면, 인공 지능을 이용하여 혼합물의 촬상 데이터로부터 선별 대상물의 유무 및 위치를 판단할 수 있기 때문에, 물체를 선별하는 기준이나 알고리즘의 설정이 불필요하다. 또한, 각 부재에, 유저로부터의 조작을 받아 지시를 주는 조작부를 구비하기 때문에, 유저가, 용이하게 학습 모델을 작성할 수 있고, 인공 지능에 학습시키는 공정도 용이하게 실시할 수 있다.According to the above configuration, since the presence or absence and location of the object to be sorted can be determined from the imaging data of the mixture using artificial intelligence, there is no need to set standards or algorithms for sorting the object. Additionally, since each member is provided with an operation unit that receives operations from the user and gives instructions, the user can easily create a learning model, and the process of having artificial intelligence learn it can also be easily performed.

따라서, 본 발명에 의하면, 조작부를 사용하여 간단하게 조작할 수 있고, 번잡한 설정 작업의 대부분을 인공 지능이 실시하게 할 수 있기 때문에, 유저가 전문적인 기술이나 지식을 가지고 있지 않더라도, 선별 대상물을 선별하기 위한 설정을 용이하게 실시할 수 있다.Therefore, according to the present invention, it can be simply operated using the control panel and most of the complicated setting work can be performed by artificial intelligence, so even if the user does not have specialized skills or knowledge, the sorting object can be selected. Settings for selection can be easily performed.

또, 본 발명의 제 2 측면에 관련된 선별 장치는, 상기 조작부가, 상기 데이터 취득부에 데이터의 취득을 지시하는 데이터 취득 지시부와, 상기 학습 데이터 작성부에 상기 학습 데이터의 작성 개시를 지시하는 학습 데이터 작성 지시부와, 상기 학습부에 상기 학습 모델의 작성을 지시하는 학습 개시 지시부와, 상기 선별 대상 선택부에 상기 선별 대상물의 종류의 선택을 지시하는 선별 대상 선택 지시부와, 상기 판별부에 상기 선별 대상물의 유무 및 위치를 판단하게 하고, 상기 선별부에, 그 판단 결과에 기초하여 상기 혼합물 중에서 상기 선별 대상물을 선별하게 하는 운전 개시 지시부를 구비할 수 있다.In addition, the selection device related to the second aspect of the present invention includes a learning unit where the operation unit includes a data acquisition instruction unit instructing the data acquisition unit to acquire data, and a learning data creation unit instructing the learning data creation unit to start creating the learning data. A data creation instruction unit, a learning start instruction unit instructing the learning unit to create the learning model, a selection object selection instruction unit instructing the selection object selection unit to select a type of the selection object, and the selection unit in the determination unit. The operation start instruction unit may be provided to determine the presence and location of an object, and to select the selection object from the mixture based on the determination result in the selection unit.

게다가 또한, 본 발명의 제 3 측면에 관련된 선별 장치는, 상기 조작부가, 적어도 상기 데이터 취득 지시부, 학습 데이터 작성 지시부 및 학습 개시 지시부를 표시하는 학습 모드와, 적어도 상기 운전 개시 지시부를 표시하는 운전 모드를 포함하는 모드 전환 조작을 지시하는 모드 전환 지시부를 구비할 수 있다. 상기 구성에 의하면, 유저는, 학습 모드와 운전 모드라는 선별 장치의 동작 상황 중, 어느 동작 상황하에 있는지를 파악하면서, 작업을 실시할 수 있고, 학습 모드에 있어서의 설정 작업은, 설정에 관련된 지시부가 집약되어 있기 때문에 오조작을 방지하기 쉽다.Furthermore, the selection device according to the third aspect of the present invention has a learning mode in which the operation unit displays at least the data acquisition instruction section, the learning data creation instruction section, and the learning start instruction section, and a driving mode in which the operating section displays at least the driving start instruction section. It may be provided with a mode switching instruction unit that instructs a mode switching operation including. According to the above configuration, the user can perform work while determining which operating situation the selection device is in, namely the learning mode and the operating mode, and the setting work in the learning mode includes instructions related to the setting. Because the information is concentrated, it is easy to prevent erroneous operation.

게다가 또한, 본 발명의 제 4 측면에 관련된 선별 장치는, 상기 조작부가, 적어도 상기 데이터 취득 지시부, 학습 데이터 작성 지시부, 학습 개시 지시부, 선별 대상 선택 지시부 및 운전 개시 지시부를 한 화면에 표시할 수 있다. 상기 구성에 의하면, 학습 모드, 운전 모드와 같이 모드로서 구별되어 있지 않고, 설정에 관련된 지시부도 운전에 관련된 지시부도 한 화면에 표시되기 때문에, 학습 모드와 운전 모드의 모드의 전환 조작을 필요하지 않게 할 수 있다.Furthermore, in the selection device according to the fourth aspect of the present invention, the operation unit can display at least the data acquisition instruction unit, the learning data creation instruction unit, the learning start instruction section, the selection target selection instruction section, and the driving start instruction section on one screen. . According to the above configuration, there is no distinction between modes such as learning mode and driving mode, and both the setting-related indicator and the driving-related indicator are displayed on one screen, so there is no need to switch between the learning mode and the driving mode. can do.

게다가 또한, 본 발명의 제 5 측면에 관련된 선별 장치는, 상기 조작부가, 터치 패널이도록 구성할 수 있다. 상기 구성에 의하면, 유저가 간단하게 조작할 수 있다.Furthermore, the selection device according to the fifth aspect of the present invention can be configured so that the operation unit is a touch panel. According to the above configuration, the user can operate it easily.

게다가 또한, 본 발명의 제 6 측면에 관련된 선별 장치는, 상기 데이터 취득부가 가시 카메라를 구비하고, 상기 데이터 취득부에 의해 취득되는 데이터가 화상 데이터이도록 구성할 수 있다. 상기 구성에 의하면, 데이터 취득부가 가시 카메라를 구비하고, 데이터를 화상 데이터로서 취득할 수 있는 점에서, 선별 대상물을, 그 선별 대상물의 형태나 위치, 크기, 범위에 기초하여 선별할 수 있다. 또한, 예를 들어 데이터 취득부가 분광기가 달린 카메라인 경우에는, 데이터는 분광 분포 데이터로서 취득할 수 있다.Furthermore, the screening device according to the sixth aspect of the present invention can be configured so that the data acquisition unit includes a visible camera, and the data acquired by the data acquisition unit is image data. According to the above configuration, the data acquisition unit is provided with a visible camera and can acquire data as image data, so that the selection target can be selected based on the shape, position, size, and range of the selection target. Additionally, for example, if the data acquisition unit is a camera equipped with a spectroscope, data can be acquired as spectral distribution data.

게다가 또한, 본 발명의 제 7 측면에 관련된 선별 장치는, 상기 종별 물체의 화상 데이터와 그 종별 물체의 종류를 특정하는 정보를 관련지어 보존하는 기억부를 구비하고, 상기 학습 데이터 작성부는, 상기 데이터 취득부에서 취득한 상기 종별 물체의 화상 데이터로부터 배경을 없애고 그 종별 물체를 추출하여 이루어지는 추출 화상 데이터를 작성하는 화상 추출부와, 상기 화상 추출부에서 작성된, 상기 혼합물에 포함되는 물체 전체 종류의 상기 추출 화상 데이터 중에서, 하나 또는 복수의 추출 화상 데이터를 랜덤하게 선택하고, 상기 데이터 취득부에서 촬상된 배경의 화상 데이터와 그 추출 화상 데이터를 합성하여 이루어지는 학습용 화상 데이터를 작성하는 화상 합성부와, 상기 화상 합성부에서 작성된 상기 학습용 화상 데이터와 상기 기억부에 보존된 정보에 기초하여 특정되는 상기 학습용 화상 데이터에 포함되는 종별 물체의 종류 및 위치의 정보를 관련지어 상기 학습 데이터를 작성하는 해답 작성부를 갖도록 구성할 수 있다. 상기 구성에 의하면, 유저의 지시에 의해, 인공 지능에 학습시키는 학습 데이터수를 제어할 수 있기 때문에, 학습 횟수를 늘림으로써 선별의 정밀도를 향상시킬 수 있다.Furthermore, the selection device according to the seventh aspect of the present invention has a storage unit that stores image data of the type object in association with information specifying the type of the type object, and the learning data creation unit acquires the data. an image extraction unit that creates extracted image data by removing the background from the image data of the object of the type acquired by the unit and extracting the object of the type, and the extracted image of all types of objects included in the mixture created by the image extraction unit; an image synthesis unit that randomly selects one or a plurality of extracted image data from among the data and creates training image data by synthesizing background image data captured by the data acquisition unit and the extracted image data, and the image synthesis unit; It may be configured to have an answer creation unit that creates the learning data by associating the learning image data created in the unit with the information on the type and position of the type object included in the learning image data specified based on the information stored in the storage unit. You can. According to the above configuration, the number of learning data to be learned by artificial intelligence can be controlled by user instructions, and thus the precision of selection can be improved by increasing the number of learning.

게다가 또한, 본 발명의 제 8 측면에 관련된 선별 장치는, 상기 선별부가, 상기 판단 결과에 기초하여 상기 선별 대상물에 압축한 공기를 쐬어, 상기 혼합물 중에서 상기 선별 대상물을 선별할 수 있다.Furthermore, in the sorting device according to the eighth aspect of the present invention, the sorting unit can select the sorting object from the mixture by blowing compressed air on the sorting object based on the judgment result.

게다가 또한, 본 발명의 제 9 측면에 관련된 선별 장치는, 상기 판단부가, 상기 학습부에서 작성된 학습 모델에 기초하여, 상기 데이터 취득부에서 취득한 혼합물의 데이터로부터, 상기 혼합물 중의 각 물체가 상기 선별 대상 선택부에서 선택된 선별 대상물일 확률을 나타내는 제 1 인식률을 산출하고, 그 제 1 인식률에 기초하여, 상기 선별 대상물의 유무 및 위치를 판단하고, 상기 선별부가, 상기 판단부의 판단 결과 및 상기 제 1 인식률에 대해 형성되는 임계값에 기초하여 상기 혼합물 중에서 상기 선별 대상물을 선별할 수 있다. 상기 구성에 의하면, 혼합물로부터 선별 대상물을 선별하는 운전시에 있어서, 혼합물의 각 물체가 선별 대상물일 확률을 나타내는 제 1 인식률을 인공 지능에 산출시키고, 그 인식률과 유저가 설정할 수 있는 임계값을 서로 연결시켜 선별 대상을 판단하기 때문에, 인공 지능을 이용하면서도, 선별 정밀도를 유저가 컨트롤할 수 있게 된다. 바꾸어 말하면, 선별의 목적이, 대략적으로 분류할 수 있으면 된다는 경우부터, 원하는 물체만 고정밀도로 추출하고자 하는 경우 등 여러 가지 상정되는 바, 선별 정밀도에 대한 유저의 요구에 따른 선별이 가능해진다.Furthermore, the selection device according to the ninth aspect of the present invention is such that the determination unit selects each object in the mixture from the data of the mixture acquired by the data acquisition unit based on the learning model created in the learning unit to be the selection target. Calculate a first recognition rate indicating the probability that the selection object is selected by the selection unit, determine the presence or absence and location of the selection object based on the first recognition rate, and the selection unit determines the determination result of the determination unit and the first recognition rate. The selection object can be selected from the mixture based on a threshold value formed for . According to the above configuration, during the operation of selecting a selection object from a mixture, the first recognition rate indicating the probability that each object in the mixture is a selection object is calculated by artificial intelligence, and the recognition rate and a threshold value that can be set by the user are mutually related. Because the selection target is judged by connection, the user can control the selection precision while using artificial intelligence. In other words, the purpose of sorting can be assumed to be various, from cases where it is sufficient to roughly classify to cases where it is desired to extract only desired objects with high precision, etc., so that sorting according to the user's request for sorting precision becomes possible.

게다가 또한, 본 발명의 제 10 측면에 관련된 선별 장치는, 상기 선별부가, 상기 제 1 인식률이 상기 임계값 이상인 선별 대상물을 선별할 수 있다. 상기 구성에 의하면, 임계값을 높게 설정함으로써, 고정밀도로 선별할 수 있고, 임계값을 낮게 설정함으로써, 대략적으로 선별할 수 있다.Furthermore, in the sorting device according to the tenth aspect of the present invention, the sorting unit can select a sorting object whose first recognition rate is equal to or greater than the threshold. According to the above configuration, by setting the threshold high, it is possible to select with high precision, and by setting the threshold low, it is possible to roughly select.

게다가 또한, 본 발명의 제 11 측면에 관련된 선별 장치는, 상기 판단부가, 상기 학습부에서 작성된 학습 모델에 기초하여, 상기 데이터 취득부에서 취득한 혼합물의 데이터로부터, 상기 혼합물 중의 각 물체가 상기 종별 물체마다 그 종별 물체일 확률을 나타내는 제 2 인식률을 산출하고, 그 제 2 인식률에 기초하여, 상기 혼합물 중의 각 물체의 종류를 특정하고, 그 종류가 상기 선별 대상물의 종류와 일치하는 경우의 제 2 인식률을 상기 제 1 인식률로 간주하여, 상기 선별 대상물의 유무 및 위치를 판단할 수 있다. 상기 구성에 의하면, 혼합물의 각 물체에 대해, 종별 물체마다 제 2 인식률이 전부 산출되기 때문에, 물체의 종류를 제 2 인식률이 최고값이 되는 종류라고 판별할 수 있고, 선별 대상물과 종류가 동일하다고 판별된 물체에 대해, 유저가 설정할 수 있는 임계값과 서로 연결시켜 선별을 실시하기 때문에, 유저는, 선별 대상물을 변경하는 경우에서도, 선별 대상물에 특화된 학습 모델을 다시 작성할 필요가 없이, 선별 대상물을 용이하게 변경할 수 있다.Furthermore, the selection device according to the eleventh aspect of the present invention is such that the judgment unit determines that each object in the mixture is an object of the type from the data of the mixture acquired by the data acquisition unit based on the learning model created by the learning unit. Calculating a second recognition rate for each object indicating the probability that it is an object of that type, specifying the type of each object in the mixture based on the second recognition rate, and a second recognition rate when the type matches the type of the selection object. By considering this as the first recognition rate, the presence and location of the selection object can be determined. According to the above configuration, since the second recognition rate is calculated for each object of each type for each object in the mixture, the type of the object can be determined as the type for which the second recognition rate is the highest, and the type is the same as the selection object. Since the identified objects are sorted by linking them to a threshold value that can be set by the user, the user can select the sorted object without having to re-create a learning model specialized for the sorted object even when changing the sorted object. It can be easily changed.

게다가 또한, 본 발명의 제 12 측면에 관련된 선별 장치는, 상기 제 1 인식률에 대해 원하는 임계값을 설정하는 임계값 설정부를 구비하고, 상기 조작부가, 상기 임계값 설정부에 상기 임계값의 설정을 지시하는 임계값 설정 지시부를 가질 수 있다. 상기 구성에 의하면, 유저는 선별 정밀도를 용이하게 설정ㆍ변경할 수 있다.Furthermore, the selection device according to the twelfth aspect of the present invention includes a threshold setting unit that sets a desired threshold value for the first recognition rate, and the operation unit sets the threshold value in the threshold setting unit. It may have a threshold setting indicator that indicates. According to the above configuration, the user can easily set and change the sorting precision.

게다가 또한, 본 발명의 제 13 측면에 관련된 선별 방법은, 복수 종류의 물체로 구성되는 혼합물 중에서 선별 대상물을 선별하는 선별 방법으로서, 데이터 취득 지시부로부터의 조작을 받아, 종류별로 분별된 상기 물체인 종별 물체 또는 상기 혼합물에 기초하는 데이터를 취득하는 데이터 취득 공정과, 학습 데이터 작성 지시부로부터의 조작을 받아, 상기 데이터 취득 공정에서 취득한 상기 종별 물체의 데이터로부터 학습 데이터를 작성하는 학습 데이터 작성 공정과, 학습 개시 지시부로부터의 조작을 받아, 상기 학습 데이터 작성 공정에서 작성한 학습 데이터를 사용하여 혼합물을 종류별로 분별하고, 종별 물체로 하는 방법을 학습하고, 그 학습에 의해 얻어진 지식 및 경험을 데이터화한 학습 모델을 작성하는 학습 공정과, 선별 대상 선택 지시부로부터의 조작을 받아, 상기 종별 물체 중에서 상기 선별 대상물의 종류를 선택하는 선별 대상 선택 공정과, 운전 개시 지시부로부터의 조작을 받아, 상기 학습 공정에서 작성한 학습 모델에 기초하여, 상기 데이터 취득 공정에서 취득한 혼합물의 데이터로부터 상기 선별 대상 선택 공정에서 선택된 종류의 선별 대상물의 유무 및 위치를 판단하고, 그 판단 결과에 기초하여 상기 혼합물 중에서 상기 선별 대상물을 선별하는 운전 공정을 포함할 수 있다.Furthermore, the selection method related to the thirteenth aspect of the present invention is a selection method for selecting a selection object from a mixture consisting of a plurality of types of objects, and receives an operation from a data acquisition instruction unit to select the object classified by type. A data acquisition step of acquiring data based on the object or the mixture, a learning data creation step of receiving an operation from a learning data creation instruction unit and creating learning data from the data of the type object acquired in the data acquisition step, and learning By receiving an operation from the start instruction unit, the learning data created in the learning data creation process is used to learn how to classify the mixture into types and create objects by type, and create a learning model that converts the knowledge and experience obtained through the learning into data. A learning process to create, a selection target selection process for receiving an operation from a selection target selection instruction unit to select the type of the selection object from the type objects, and a learning model created in the learning process by receiving an operation from an operation start instruction unit. Based on this, an operation process of determining the presence or absence and location of the type of selection object selected in the selection object selection process from the data of the mixture acquired in the data acquisition process, and selecting the selection object from the mixture based on the judgment result. may include.

게다가 또한, 본 발명의 제 14 측면에 관련된 선별 방법은, 모드 전환 지시부로부터의 조작을 받아, 적어도 상기 데이터 취득 지시부, 학습 데이터 작성 지시부 및 학습 개시 지시부를 표시하는 학습 모드와, 적어도 상기 운전 개시 지시부를 표시하는 운전 모드를 포함하는 모드 전환 조작을 실시할 수 있다.Furthermore, the selection method according to the fourteenth aspect of the present invention includes a learning mode that receives an operation from a mode switching instruction unit and displays at least the data acquisition instruction section, the learning data creation instruction section, and the learning start instruction section, and at least the operation start instruction section. A mode switching operation including an operation mode displaying can be performed.

게다가 또한, 본 발명의 제 15 측면에 관련된 선별 방법은, 적어도 상기 데이터 취득 지시부, 학습 데이터 작성 지시부, 학습 개시 지시부, 선별 대상 선택 지시부 및 운전 개시 지시부를 한 화면에 표시할 수 있다.Furthermore, the selection method according to the fifteenth aspect of the present invention can display at least the data acquisition instruction section, learning data creation instruction section, learning start instruction section, selection object selection instruction section, and driving start instruction section on one screen.

게다가 또한, 본 발명의 제 16 측면에 관련된 선별 방법은, 상기 운전 공정에 있어서, 운전 개시 지시부로부터의 조작을 받아, 상기 학습 공정에서 작성한 학습 모델에 기초하여, 상기 데이터 취득 공정에서 취득한 혼합물의 데이터로부터, 상기 혼합물 중의 각 물체가 상기 선별 대상 선택부에서 선택된 선별 대상물일 확률을 나타내는 제 1 인식률을 산출하고, 그 제 1 인식률에 기초하여, 상기 선별 대상물의 유무 및 위치를 판단하고, 그 판단 결과 및 상기 제 1 인식률에 대해 형성되는 임계값에 기초하여 상기 혼합물 중에서 상기 선별 대상물을 선별할 수 있다.In addition, the selection method related to the sixteenth aspect of the present invention provides, in the operation step, an operation from an operation start instruction unit, and based on the learning model created in the learning step, data of the mixture acquired in the data acquisition step. From this, a first recognition rate indicating the probability that each object in the mixture is the selection object selected in the selection object selection unit is calculated, and based on the first recognition rate, the presence or absence and location of the selection object are determined, and the judgment result is And the selection object may be selected from the mixture based on a threshold value formed for the first recognition rate.

게다가 또한, 본 발명의 제 17 측면에 관련된 선별 방법은, 상기 운전 공정에 있어서, 상기 제 1 인식률이 상기 임계값 이상인 선별 대상물을 선별할 수 있다.Furthermore, the selection method according to the seventeenth aspect of the present invention can select, in the operation process, a selection object whose first recognition rate is equal to or greater than the threshold value.

게다가 또한, 본 발명의 제 18 측면에 관련된 선별 방법은, 상기 운전 공정에 있어서, 상기 학습 공정에서 작성된 학습 모델에 기초하여, 상기 데이터 취득 공정에서 취득한 혼합물의 데이터로부터, 상기 혼합물 중의 각 물체가 상기 종별 물체마다 그 종별 물체일 확률을 나타내는 제 2 인식률을 산출하고, 그 제 2 인식률에 기초하여, 상기 혼합물 중의 각 물체의 종류를 특정하고, 그 종류가 상기 선별 대상물의 종류와 일치하는 경우의 제 2 인식률을 상기 제 1 인식률로 간주하여, 상기 선별 대상물의 유무 및 위치를 판단할 수 있다.Furthermore, the selection method related to the 18th aspect of the present invention is such that, in the operation process, each object in the mixture is selected from the mixture data acquired in the data acquisition process, based on the learning model created in the learning process. For each type of object, a second recognition rate indicating the probability that it is an object of that type is calculated, and based on the second recognition rate, the type of each object in the mixture is specified, and the type matches the type of the selection object. By considering the 2 recognition rate as the first recognition rate, the presence and location of the selection object can be determined.

게다가 또한, 본 발명의 제 19 측면에 관련된 선별 방법은, 복수 종류의 물체로 구성되는 혼합물 중에서 선별 대상물을 선별하기 위한 선별 프로그램으로서, 데이터 취득 지시부로부터의 조작을 받아, 종류별로 분별된 상기 물체인 종별 물체 또는 상기 혼합물에 기초하는 데이터를 취득하는 기능과, 학습 데이터 작성 지시부로부터의 조작을 받아, 상기 취득한 상기 종별 물체의 촬상 데이터로부터 학습 데이터를 작성하는 기능과, 학습 개시 지시부로부터의 조작을 받아, 상기 작성한 학습 데이터를 사용하여 혼합물을 종류별로 분별하고, 종별 물체로 하는 방법을 학습하고, 그 학습에 의해 얻어진 지식 및 경험을 데이터화한 학습 모델을 작성하는 기능과, 선별 대상 선택 지시부로부터의 조작을 받아, 상기 종별 물체 중에서 상기 선별 대상물의 종류를 선택하는 기능과, 운전 개시 지시부로부터의 조작을 받아, 상기 작성한 학습 모델에 기초하여, 상기 취득한 혼합물의 데이터로부터 상기 선택된 종류의 선별 대상물의 유무 및 위치를 판단하고, 그 판단 결과에 기초하여 상기 혼합물 중에서 상기 선별 대상물을 선별하는 기능을 컴퓨터에 실현시킬 수 있다.Furthermore, the selection method related to the 19th aspect of the present invention is a selection program for selecting a selection object from a mixture consisting of a plurality of types of objects, and receives an operation from a data acquisition instruction unit to select the objects classified by type. A function to acquire data based on the type object or the mixture, an operation from a learning data creation instruction section, a function to create learning data from the acquired imaging data of the type object, and an operation from a learning start instruction section. , using the learning data created above, to learn how to classify mixtures by type and create objects by type, and to create a learning model that converts the knowledge and experience obtained through the learning into data, and operation from the selection target selection instruction unit. a function to select the type of the sorting object from the type objects, and receiving an operation from the operation start instruction unit, based on the created learning model, the presence or absence of the sorting object of the selected type from the data of the acquired mixture, and The function of determining the position and selecting the sorting object from the mixture based on the judgment result can be implemented in a computer.

게다가 또한, 본 발명의 제 20 측면에 관련된 선별 방법은, 운전 개시 지시부로부터의 조작을 받아, 상기 작성한 학습 모델에 기초하여, 상기 취득한 혼합물의 데이터로부터, 상기 혼합물 중의 각 물체가 상기 선별 대상 선택부에서 선택된 선별 대상물일 확률을 나타내는 제 1 인식률을 산출하고, 그 제 1 인식률에 기초하여, 상기 선별 대상물의 유무 및 위치를 판단하고, 그 판단 결과 및 제 1 인식률에 대해 형성되는 임계값에 기초하여 상기 혼합물 중에서 상기 선별 대상물을 선별할 수 있다.Furthermore, the selection method according to the twentieth aspect of the present invention receives an operation from a driving start instruction unit and, based on the created learning model, selects each object in the mixture from the data of the mixture to be selected by the selection target selection unit. Calculate a first recognition rate indicating the probability that the selection object is selected, determine the presence or absence and location of the selection object based on the first recognition rate, and based on the judgment result and a threshold formed for the first recognition rate. The selection target can be selected from the mixture.

게다가 또한, 본 발명의 제 21 측면에 관련된 선별 방법은, 상기 제 1 인식률이 상기 임계값 이상인 선별 대상물을 선별하는 기능을 컴퓨터에 실현시킬 수 있다.Moreover, the selection method according to the 21st aspect of the present invention enables a computer to realize the function of selecting a selection object whose first recognition rate is equal to or higher than the threshold value.

게다가 또한, 본 발명의 제 22 측면에 관련된 선별 방법은, 상기 작성한 학습 모델에 기초하여, 상기 취득한 혼합물의 데이터로부터, 상기 혼합물 중의 각 물체가 상기 종별 물체마다 그 종별 물체일 확률을 나타내는 제 2 인식률을 산출하고, 그 제 2 인식률에 기초하여, 상기 혼합물 중의 각 물체의 종류를 특정하고, 그 종류가 상기 선별 대상물의 종류와 일치하는 경우의 제 2 인식률을 상기 제 1 인식률로 간주하여, 상기 선별 대상물의 유무 및 위치를 판단하는 기능을 컴퓨터에 실현시킬 수 있다.Furthermore, the selection method related to the 22nd aspect of the present invention is a second recognition rate that indicates the probability that each object in the mixture is an object of that type for each object of the type, from the data of the obtained mixture, based on the learning model created above. Calculate, based on the second recognition rate, specify the type of each object in the mixture, consider the second recognition rate when the type matches the type of the selection object as the first recognition rate, and perform the selection. The function of determining the presence and location of an object can be implemented on a computer.

게다가 또한, 본 발명의 제 23 측면에 관련된 기록 매체 또는 기억한 기기는, 상기 프로그램을 격납한 것이다. 기록 매체에는, CD-ROM, CD-R, CD-RW 나 플렉시블 디스크, 자기 테이프, MO, DVD-ROM, DVD-RAM, DVD-R, DVD+R, DVD-RW, DVD+RW, Blu-ray (등록 상표), BD-R, BD-RE, HD DVD (AOD) 등의 자기 디스크, 광 디스크, 광자기 디스크, 반도체 메모리 그 밖의 프로그램을 격납 가능한 매체가 포함된다. 또 프로그램에는, 상기 기록 매체에 격납되어 배포되는 것 외에, 인터넷 등의 네트워크 회선을 통해 다운로드에 의해 배포되는 형태의 것도 포함된다. 또한 기록 매체에는 프로그램을 기록 가능한 기기, 예를 들어 상기 프로그램이 소프트웨어나 펌웨어 등의 형태로 실행 가능한 상태로 실장된 범용 혹은 전용 기기를 포함한다. 게다가 또한 프로그램에 포함되는 각 처리나 기능은, 컴퓨터로 실행 가능한 프로그램 소프트웨어에 의해 실행해도 되고, 각 부의 처리를 소정의 게이트 어레이 (FPGA, ASIC) 등의 하드웨어 또는 프로그램 소프트웨어와 하드웨어의 일부의 요소를 실현하는 부분적 하드웨어 모듈이 혼재하는 형식으로 실현해도 된다.Furthermore, the recording medium or storage device related to the twenty-third aspect of the present invention stores the above program. Recording media include CD-ROM, CD-R, CD-RW, flexible disk, magnetic tape, MO, DVD-ROM, DVD-RAM, DVD-R, DVD+R, DVD-RW, DVD+RW, Blu- Includes magnetic disks such as ray (registered trademark), BD-R, BD-RE, HD DVD (AOD), optical disks, magneto-optical disks, semiconductor memories, and other media capable of storing programs. In addition, programs include those distributed by being stored on the above-mentioned recording medium, as well as those distributed by downloading through network lines such as the Internet. Additionally, recording media include devices capable of recording programs, for example, general-purpose or dedicated devices in which the program is executable in the form of software or firmware. Additionally, each process or function included in the program may be executed by computer-executable program software, and the processing of each part may be performed using hardware such as a predetermined gate array (FPGA, ASIC) or some elements of program software and hardware. It may be realized in a format where partial hardware modules are mixed.

도 1 은, 본 발명의 실시형태에 관련된 선별 장치의 개략도이다.
도 2 는, 본 발명의 실시형태에 관련된 라인 센서 카메라와 컨베이어의 위치 관계의 설명도이다.
도 3 은, 본 발명의 실시형태에 관련된 라인 센서 카메라로 작성하는 화상 데이터의 설명도이다.
도 4 는, 화상 데이터로부터 물체가 비치는 부분을 추출하여, 추출 화상 데이터를 작성하는 방법의 설명도이다.
도 5 는, 화상 데이터로부터 물체가 비치는 부분을 추출하여, 추출 화상 데이터를 작성하는 방법의 설명도이다.
도 6 은, 인공적인 혼합물의 화상 데이터를 작성하는 방법의 설명도이다.
도 7 은, 분사 영역 및 에어 분사 노즐마다의 분사 타이밍을 설정하는 방법의 설명도이다.
도 8 은, 본 발명의 실시형태에 관련된 선별 장치의 기능 블록도이다.
도 9 는, 학습 모드에 있어서의 선별 장치의 조작 방법의 흐름을 나타내는 플로 차트이다.
도 10 은, 컨트롤러에 표시되는 화면의 설명도이다.
도 11 은, 컨트롤러에 표시되는 화면의 설명도이다.
도 12 는, 컨트롤러에 표시되는 화면의 설명도이다.
도 13 은, 컨트롤러에 표시되는 화면의 설명도이다.
도 14 는, 컨트롤러에 표시되는 화면의 설명도이다.
도 15 는, 컨트롤러에 표시되는 화면의 설명도이다.
도 16 은, 컨트롤러에 표시되는 화면의 설명도이다.
도 17 은, 컨트롤러에 표시되는 화면의 설명도이다.
도 18 은, 운전 모드에 있어서의 선별 장치의 조작 방법의 흐름을 나타내는 플로 차트이다.
도 19 는, 컨트롤러에 표시되는 화면의 설명도이다.
도 20 은, 컨트롤러에 표시되는 화면의 설명도이다.
도 21 은, 컨트롤러에 표시되는 화면의 설명도이다.
도 22 는, 컨트롤러에 표시되는 화면의 설명도이다.
1 is a schematic diagram of a sorting device related to an embodiment of the present invention.
Fig. 2 is an explanatory diagram of the positional relationship between a line sensor camera and a conveyor according to an embodiment of the present invention.
Fig. 3 is an explanatory diagram of image data created by a line sensor camera according to an embodiment of the present invention.
Fig. 4 is an explanatory diagram of a method of extracting a portion where an object is reflected from image data and creating extracted image data.
Fig. 5 is an explanatory diagram of a method of extracting a portion where an object is reflected from image data and creating extracted image data.
Fig. 6 is an explanatory diagram of a method for creating image data of an artificial mixture.
Fig. 7 is an explanatory diagram of a method for setting the injection timing for each injection area and air injection nozzle.
Fig. 8 is a functional block diagram of a sorting device related to an embodiment of the present invention.
Fig. 9 is a flow chart showing the flow of the method of operating the selection device in the learning mode.
Fig. 10 is an explanatory diagram of the screen displayed on the controller.
Fig. 11 is an explanatory diagram of the screen displayed on the controller.
Fig. 12 is an explanatory diagram of the screen displayed on the controller.
Figure 13 is an explanatory diagram of the screen displayed on the controller.
Fig. 14 is an explanatory diagram of the screen displayed on the controller.
Fig. 15 is an explanatory diagram of the screen displayed on the controller.
Figure 16 is an explanatory diagram of the screen displayed on the controller.
Figure 17 is an explanatory diagram of the screen displayed on the controller.
Fig. 18 is a flow chart showing the flow of the method of operating the sorting device in the operation mode.
Figure 19 is an explanatory diagram of the screen displayed on the controller.
Figure 20 is an explanatory diagram of the screen displayed on the controller.
Figure 21 is an explanatory diagram of the screen displayed on the controller.
Figure 22 is an explanatory diagram of the screen displayed on the controller.

이하, 본 발명의 실시형태를 도면에 기초하여 설명한다. 단, 이하에 나타내는 실시형태는, 본 발명의 기술 사상을 구체화하기 위한 선별 장치를 예시하는 것으로서, 본 발명은 그것들을 이하의 것으로 특정하지 않는다. 또, 본 명세서는 특허청구범위에 나타나는 부재를, 실시형태의 부재로 특정하는 것은 결코 아니다. 특히 실시형태에 기재되어 있는 구성 부품의 치수, 재질, 형상, 그 상대적 배치 등은 특히 특정적인 기재가 없는 한은, 본 발명의 범위를 그것에만 한정하려는 취지는 아니며, 단순한 설명예에 불과하다. 또한, 각 도면이 나타내는 부재의 크기나 위치 관계 등은, 설명을 명확하게 하기 위해 과장하고 있는 경우가 있다. 또한 이하의 설명에 있어서, 동일한 명칭, 부호에 대해서는 동일 혹은 동질의 부재를 나타내고 있어, 상세 설명을 적절히 생략한다. 또한, 본 발명을 구성하는 각 요소는, 복수의 요소를 동일한 부재로 구성하여 하나의 부재로 복수의 요소를 겸용하는 양태로 해도 되고, 반대로 하나의 부재의 기능을 복수의 부재로 분담하여 실현할 수도 있다.EMBODIMENT OF THE INVENTION Hereinafter, embodiment of this invention will be described based on the drawings. However, the embodiments shown below exemplify a sorting device for embodying the technical idea of the present invention, and the present invention does not specify them as follows. In addition, this specification in no way specifies members appearing in the claims as members of the embodiments. In particular, the dimensions, materials, shapes, relative arrangements, etc. of the component parts described in the embodiments are not intended to limit the scope of the present invention only thereto, unless specifically stated, and are merely illustrative examples. Additionally, the sizes and positional relationships of members shown in each drawing may be exaggerated for clarity of explanation. In addition, in the following description, the same names and symbols indicate identical or homogeneous members, and detailed descriptions are appropriately omitted. In addition, each element constituting the present invention may be configured by forming a plurality of elements into the same member, so that a single member can serve as a plurality of elements, or conversely, the function of one member may be divided into a plurality of members. there is.

(선별 장치 (1))(Selection device (1))

본 발명의 실시형태에 관련된 선별 장치 (1) 에 대하여, 개략도인 도 1, 기능 블록도인 도 8, 및 라인 센서 카메라 (11) 와 컨베이어 (13) 의 위치 관계의 설명도인 도 2 에 기초하여 설명한다.Regarding the sorting device 1 according to the embodiment of the present invention, based on FIG. 1 which is a schematic diagram, FIG. 8 which is a functional block diagram, and FIG. 2 which is an explanatory diagram of the positional relationship between the line sensor camera 11 and the conveyor 13. This explains.

도 1 에 나타내는 바와 같이, 본 실시형태에 관련된 선별 장치 (1) 는, 공급 장치 (2) 로부터 공급되고, 컨베이어 (13) 에 흐르는 복수 종류의 물체로 구성되는 혼합물 (MO) 중에서 선별 대상물 (SO) 을, 압축 공기를 내보내는 에어 분사 노즐 (14) 을 사용하여 선별하는 장치로서, 주로, 라인 센서 카메라 (11) (특허청구범위에 있어서의 「데이터 취득부」의 일례에 대응한다.), 제 1 제어부 (12), 컨트롤러 (15) (특허청구범위에 있어서의 「조작부」의 일례에 대응한다.), 컨베이어 (13) 및 에어 분사 노즐 (14) 로 구성된다. 공급 장치 (2) 는, 예를 들어, 투입 호퍼 (21) 와 이송 컨베이어 (22) 와 투입 피더 (23) 로 이루어진다. 투입 호퍼 (21) 는, 혼합물 (MO) 을 받아들일 수 있도록 구성되어 있다. 이송 컨베이어 (22) 는, 투입 호퍼 (21) 로부터 공급되는 혼합물 (MO) 을 투입 피더 (23) 에 공급한다. 투입 피더 (23) 는, 진동 피더 또는 전자 (電磁) 피더 등으로 구성되어 있고, 진동함으로써, 혼합물 (MO) 끼리의 중첩을 방지하면서 혼합물 (MO) 을 컨베이어 (13) 에 공급한다.As shown in FIG. 1, the sorting device 1 according to the present embodiment selects the sorting target object (SO) from the mixture (MO) composed of a plurality of types of objects supplied from the supply device 2 and flowing on the conveyor 13. ) as a device for sorting out the compressed air using an air injection nozzle 14 that discharges compressed air, mainly using a line sensor camera 11 (corresponding to an example of the “data acquisition unit” in the scope of the patent claims), 1 It is composed of a control unit 12, a controller 15 (corresponds to an example of the “operation unit” in the scope of the patent claims), a conveyor 13, and an air injection nozzle 14. The feeding device 2 includes, for example, an input hopper 21, a transfer conveyor 22, and an input feeder 23. The input hopper 21 is configured to receive the mixture MO. The transfer conveyor 22 supplies the mixture MO supplied from the input hopper 21 to the input feeder 23. The input feeder 23 is comprised of a vibrating feeder or an electromagnetic feeder, and supplies the mixture MO to the conveyor 13 by vibrating while preventing the mixture MO from overlapping with each other.

선별 장치 (1) 는, 학습 모드 (LM) 및 운전 모드 (OM) 의 2 개의 모드를 구비하고 있다. 학습 모드 (LM) 는, 선별 장치 (1) 를 동작시키기 위한 준비, 설정을 실시하는 모드이다. 한편, 운전 모드 (OM) 는, 실제로 혼합물 (MO) 로부터 선별 대상물 (SO) 을 선별하는 모드이다.The sorting device 1 has two modes: learning mode (LM) and operating mode (OM). The learning mode (LM) is a mode in which preparations and settings for operating the sorting device 1 are performed. On the other hand, the operation mode OM is a mode that actually selects the sorting object SO from the mixture MO.

혼합물 (MO) 은, 금속이나 종이, 플라스틱 등, 라인 센서 카메라 (11) 에 의해 취득한 화상 데이터로부터 개개의 물체를 식별 가능하고, 에어 분사 노즐 (14) 에 의한 에어의 분사에 의해 진로를 변경할 수 있는 복수 종류의 물체로 구성되어 있다. 혼합물 (MO) 에 포함되는 물체의 종류로는, 예를 들어, 금속이나 종이, 플라스틱 등이 상정되지만, 예를 들어 금속이라고 하는 큰 묶음에 한정되지 않고, 보다 하층으로 분류되는 구리나 알루미늄 등, 색채와 형상으로부터 식별할 수 있는 것은 전부 대상이 될 수 있다. 또, 본 실시형태에 관련된 선별 장치 (1) 는, 예를 들어, 알루미늄, 놋쇠, 금, 은, 구리와 같이 한번에 5 종류까지 물체를 식별할 수 있게 되어 있고, 그와 같은 물체로 구성된 혼합물 (MO) 중에서, 선별 대상물 (SO) 로서, 예를 들어 구리만과 같이 한 종류를 선별할 수도 있고, 예를 들어 알루미늄ㆍ놋쇠ㆍ금과 같이 동시에 복수의 종류를 선별할 수도 있도록 구성되어 있다.For the mixture (MO), individual objects such as metal, paper, plastic, etc. can be identified from image data acquired by the line sensor camera 11, and the path can be changed by spraying air by the air injection nozzle 14. It is composed of multiple types of objects. The types of objects included in the mixture (MO) are, for example, assumed to be metal, paper, plastic, etc., but are not limited to the large bundle called metal, and are classified into lower layers such as copper, aluminum, etc. Anything that can be identified from color and shape can be an object. In addition, the sorting device 1 according to the present embodiment is capable of identifying up to five types of objects at a time, such as aluminum, brass, gold, silver, and copper, and can identify mixtures composed of such objects ( Among the MO), as the sorting object (SO), it is configured so that one type, such as only copper, can be selected, or multiple types can be selected simultaneously, such as aluminum, brass, and gold, for example.

이하, 각 부재에 대하여 상세하게 설명한다. 또한, 이하의 설명에 있어서, 편의상, 혼합물 (MO) 은 물체 A ∼ C (특허청구범위에 있어서의 「종별 물체」의 일례에 대응한다.) 로 구성되고, 선별 대상물 (SO) 로서 물체 A 를 선택한 것으로 한다.Hereinafter, each member will be described in detail. In addition, in the following description, for convenience, the mixture (MO) is composed of objects A to C (corresponding to an example of a “class object” in the scope of the patent claims), and object A is used as the object to be screened (SO). Make your choice.

(라인 센서 카메라 (11))(Line Sensor Camera (11))

선별 장치 (1) 는, 도 2 에 나타내는 바와 같이, 2 개의 라인 센서 카메라 (11) 가 컨베이어 (13) 의 폭 방향으로 나열되어 형성되어 있다. 라인 센서 카메라 (11) 는, 컨베이어 (13) 의 인코더 (131) 로부터 펄스를 받을 때마다 촬상을 실시하고, 이 촬상 결과로부터 화상 데이터 (ID) 를 취득하는 부재이다.As shown in FIG. 2, the sorting device 1 is formed with two line sensor cameras 11 aligned in the width direction of the conveyor 13. The line sensor camera 11 is a member that captures images every time it receives a pulse from the encoder 131 of the conveyor 13 and acquires image data (ID) from the results of this imaging.

라인 센서 카메라 (11) 의 X 방향은 컨베이어 (13) 의 폭 방향, Y 방향은 컨베이어 (13) 의 진행 방향에 대응하고 있고, 도 2 에 나타내는 바와 같이, 1 개의 라인 센서 카메라 (11) 로, 소정의 X 방향 촬상 범위 (11a) 를 촬상할 수 있다. 이 X 방향 범위 (11a) 로부터, 컨베이어 (13) 양 단의 제외 범위 (11b) 와 컨베이어 (13) 중앙의 제외 범위 (11c) 를 제외한 X 방향 유효 범위 (11d) 를 2 개 모두 합친 X 방향 범위 (11e) 를, 도 3 에 나타내는 바와 같이, Y 방향으로 소정의 Y 방향 범위 (11f) 에서 빼내어 화상 데이터 (ID) 를 작성한다. 작성된 화상 데이터 (ID) 중, Y 방향의 일단으로부터 원하는 중복 범위 (11g) 는, 직전에 작성된 화상 데이터 (ID) 와 중복되는 범위이다.The X direction of the line sensor camera 11 corresponds to the width direction of the conveyor 13, and the Y direction corresponds to the moving direction of the conveyor 13. As shown in FIG. 2, there is one line sensor camera 11, A predetermined X-direction imaging range 11a can be imaged. From this X-direction range (11a), the As shown in FIG. 3, image data (ID) is created by extracting (11e) in the Y direction from a predetermined Y direction range (11f). Among the created image data (ID), the desired overlapping range (11g) from one end of the Y direction is a range that overlaps with the image data (ID) created immediately before.

학습 모드에 있어서의 라인 센서 카메라 (11) 는, 혼합물 (MO) 에 포함되는 물체를, 물체마다 촬상하여, 각 물체의 화상 데이터 (ID) 를 작성한다. 구체적으로는, 복수의 물체 A 가 컨베이어 (13) 로 흘러간 상태에서 촬상을 실시하여, 물체 A 의 화상 데이터 (ID) 를 작성한다. 물체 B, C 도 동일하게 하여, 물체 B, C 의 화상 데이터 (ID) 를 작성한다. 작성된 각 물체의 화상 데이터 (ID) 는, 촬상된 물체의 명칭과 관련지어진 상태에서 도 8 에 나타내는 기억부 (121) 로 송신되어, 보존된다. 또, 물체를 컨베이어 (13) 로 흐르게 하지 않은 상태에서 촬상을 실시하여, 배경 화상 (BI) 을 작성하고, 작성된 배경 화상 (BI) 은 기억부 (121) 로 송신되어, 보존된다.The line sensor camera 11 in the learning mode captures images of the objects included in the mixture MO for each object and creates image data ID for each object. Specifically, imaging is performed while a plurality of objects A are flowing on the conveyor 13, and image data (ID) of the objects A is created. Objects B and C are similarly processed to create image data (ID) for objects B and C. The created image data (ID) of each object is transmitted to the storage unit 121 shown in FIG. 8 and stored in a state in which it is associated with the name of the imaged object. Additionally, imaging is performed without the object flowing on the conveyor 13 to create a background image (BI), and the created background image (BI) is transmitted to the storage unit 121 and stored.

또, 운전 모드 (OM) 에 있어서의 라인 센서 카메라 (11) 는, 혼합물 (MO) 이 컨베이어 (13) 로 흘러간 상태에서 촬상을 실시하여, 혼합물 (MO) 의 화상 데이터 (ID) 를 작성한다. 작성된 혼합물 (MO) 의 화상 데이터 (ID) 는, 판단부 (125) 로 송신된다.Additionally, the line sensor camera 11 in the operation mode OM captures the mixture MO while it is flowing on the conveyor 13, and creates image data ID of the mixture MO. Image data (ID) of the created mixture (MO) is transmitted to the judgment unit 125.

또한, 특허청구범위에 있어서의 「데이터 취득부」의 일례로서 라인 센서 카메라 (11) 를 설명했지만, 「데이터 취득부」는 이것에 한정되지 않고, 에어리어 센서 카메라여도 되고, 가시광, 적외선, X 선 중 어느 것을 사용한 것이어도 된다. X 선을 사용한 경우, X 선 광원을 컨베이어에 의해 반송되는 물체의 상부, X 선 카메라를 컨베이어의 벨트의 하부에 배치할 수 있고, 그 반대의 배치도 가능하다.In addition, the line sensor camera 11 has been described as an example of the “data acquisition unit” in the scope of the patent claims, but the “data acquisition unit” is not limited to this, and may be an area sensor camera, and may be an area sensor camera, and may be an example of a “data acquisition unit” in the patent claims. Any of these may be used. When using X-rays, the X-ray light source can be placed on top of the object transported by the conveyor, the X-ray camera can be placed on the bottom of the conveyor belt, and vice versa.

또, 작성된 각 물체의 화상 데이터 (ID) 는, 물체의 명칭 이외에도, 후술하는 선별 대상 선택부 (124) 에 있어서, 선별 대상물 (SO) 을 선택할 때에 유저가 물체의 종류가 무엇인지 알 수 있는 정보와 관련지어져 있으면 된다.In addition, the created image data (ID) of each object is, in addition to the name of the object, information that allows the user to know the type of the object when selecting the sorting object (SO) in the sorting object selection unit 124 described later. It just has to be related to.

게다가 또한, 반드시 라인 센서 카메라 (11) 로 촬상, 작성한 배경 화상 (BI) 을 기억부 (121) 에 보존할 필요는 없고, 예를 들어, 배경 화상 (BI) 은, 선별 장치 (1) 의 제조 단계에서 별도로 준비되고, 기억부 (121) 에 보존되는 양태여도 된다.In addition, it is not necessarily necessary to store the background image (BI) captured and created by the line sensor camera 11 in the storage unit 121. For example, the background image (BI) is stored in the storage unit 121. It may be prepared separately at this stage and stored in the storage unit 121.

게다가 또한, 배경 화상 (BI) 대신에, 컨베이어 (13) 의 색의 정보를 기억부 (121) 에 보존하도록 해도 된다.Additionally, instead of the background image BI, information on the color of the conveyor 13 may be stored in the storage unit 121.

(제 1 제어부 (12))(First control unit (12))

제 1 제어부 (12) 는, 기억부 (121), 학습 데이터 작성부 (122), 학습부 (123), 선별 대상 선택부 (124), 임계값 설정부 (126) 및 판단부 (125) 를 구비한다. 제 1 제어부 (12) 는, 운전 모드 (OM) 에 있어서, 라인 센서 카메라 (11) 로 취득한 혼합물 (MO) 의 화상 데이터 (ID) 로부터 선별 대상물 (SO) 의 유무 및 위치를 판단한다. 또, 학습 모드 (LM) 에 있어서는, 그 판단을 위한 준비, 설정이 실시된다. 이하, 각 부재에 대하여 상세하게 설명한다.The first control unit 12 includes a storage unit 121, a learning data creation unit 122, a learning unit 123, a selection target selection unit 124, a threshold setting unit 126, and a judgment unit 125. Equipped with In the operation mode OM, the first control unit 12 determines the presence and position of the selection object SO from the image data (ID) of the mixture MO acquired by the line sensor camera 11. Additionally, in the learning mode (LM), preparations and settings for the judgment are performed. Hereinafter, each member will be described in detail.

(기억부 (121))(Memory (121))

기억부 (121) 는, 라인 센서 카메라 (11) 에 의해 작성된 물체 A ∼ C 의 화상 데이터 (ID) 및 화상 데이터 (ID) 에 관련지어진 물체의 명칭과, 배경 화상 (BI) 을 보존하는 부재이다.The storage unit 121 is a member that stores the image data (ID) of objects A to C created by the line sensor camera 11, the name of the object associated with the image data (ID), and the background image (BI). .

(학습 데이터 작성부 (122))(Learning data creation department (122))

학습 데이터 작성부 (122) 는, 라인 센서 카메라 (11) 에 의해 촬상되고, 취득된 물체 A ∼ C 의 화상 데이터 (ID) 와 배경 화상 (BI) 으로부터, 학습 데이터 (LD) 를 작성하고, 보존한다. 학습 데이터 작성부 (122) 는, 화상 추출부 (122a), 화상 합성부 (122b) 및 해답 작성부 (122c) 의 3 개의 부재로 구성된다. 각 부재의 구성은 후술하는 바와 같다.The learning data creation unit 122 creates and stores learning data (LD) from the image data (ID) and background image (BI) of the objects A to C acquired and imaged by the line sensor camera 11. do. The learning data creation unit 122 is comprised of three members: an image extraction unit 122a, an image synthesis unit 122b, and an answer creation unit 122c. The configuration of each member is as described later.

작성된 학습 데이터 (LD) 는 학습부 (123) 에서 실시하는 학습에 사용된다. 1 회의 학습에 대하여, 1 개의 학습 데이터 (LD) 가 사용되고, 이 학습을 반복하는 횟수가 많을수록 운전 모드 (OM) 에 있어서의 선별의 정밀도는 향상된다. 즉, 학습 데이터 작성부 (122) 에서 작성하는 학습 데이터 (LD) 가 많을수록, 운전 모드 (OM) 에 있어서의 선별의 정밀도는 향상된다. 또한, 본 발명의 제 1 실시예에 관련된 선별 장치 (1) 는, 상한을 4 만회로 하여, 유저가 학습의 반복 횟수를 자유롭게 설정할 수 있는 양태이다 (상세한 내용은 후술한다.).The created learning data (LD) is used for learning conducted by the learning unit 123. For one learning, one learning data (LD) is used, and the greater the number of times this learning is repeated, the better the selection accuracy in the operation mode (OM). In other words, the more learning data LD created by the learning data creation unit 122, the better the selection accuracy in the operation mode OM. Additionally, the selection device 1 according to the first embodiment of the present invention is in an aspect in which the user can freely set the number of repetitions of learning, with the upper limit set at 40,000 (details will be described later).

(화상 추출부 (122a))(Image extraction unit 122a)

화상 추출부 (122a) 는, 기억부 (121) 로부터 물체 A ∼ C 의 화상 데이터 (ID) 및 배경 화상 (BI) 을 불러내고, 배경 화상 (BI) 에 기초하여, 물체 A ∼ C 의 화상 데이터 (ID) 로부터 물체가 비치는 부분을 추출하여, 추출 화상 데이터 (SD) 를 작성한다. 예를 들어, 물체 A 의 화상 데이터 (ID) 를 추출하는 경우, 도 4 에 나타내는 바와 같이, 중복 범위 (11g) 를 제외한 범위를 1 픽셀마다 배경 화상 (BI) 과 비교한다. 비교의 결과, 배경 화상 (BI) 과 일치하는 부분 이외를 물체 A 가 비치는 부분으로서 잘라내어, 물체 A 의 추출 화상 데이터 (SD) 를 작성한다. 이상과 같이, 기본적으로, 중복 범위 (11g) 를 제외한 범위에서 비교를 실시하지만, 도 5 에 나타내는 바와 같이, 물체 A 가 이 범위에서 벗어난 위치에 있는 경우, 중복 범위 (11g) 까지 범위를 넓혀 비교를 실시한다. 동일하게 하여, 물체 B, C 의 화상 데이터 (ID) 로부터도 물체 B, C 의 추출 화상 데이터 (SD) 를 작성한다.The image extracting unit 122a retrieves the image data (ID) and background images (BI) of objects A to C from the storage unit 121 and, based on the background images (BI), retrieves the image data of objects A to C. The portion where the object is reflected is extracted from (ID), and extracted image data (SD) is created. For example, when extracting image data (ID) of object A, as shown in FIG. 4, the range excluding the overlapping range (11g) is compared with the background image (BI) for each pixel. As a result of the comparison, the part other than the part matching the background image (BI) is cut out as the part where the object A is reflected, and extracted image data (SD) of the object A is created. As mentioned above, basically, comparison is performed in a range excluding the overlapping range (11g), but as shown in Figure 5, if object A is located outside of this range, the range is expanded to the overlapping range (11g) and comparison is made. carry out. In the same manner, extracted image data (SD) of objects B and C are created from the image data (ID) of objects B and C.

또한, 배경 화상 (BI) 과 완전히 일치하는 부분뿐만 아니라, 배경 화상 (BI) 과 일치하는 것으로 간주하는 범위를 설정해 두고, 이것들 이외를 잘라내어, 추출 화상 데이터 (SD) 를 작성하도록 해도 된다. 이것에 의하면, 예를 들어, 컨베이어 (13) 에 흠집이나 오염이 있어, 배경 화상 (BI) 과 완전히 일치하지 않은 경우라 하더라도, 적절히 물체를 잘라내어, 그 물체의 추출 화상 데이터 (SD) 를 작성할 수 있다.Additionally, in addition to the portion that completely matches the background image (BI), a range considered to match the background image (BI) may be set, and areas other than these may be cut out to create extracted image data (SD). According to this, even if, for example, there are scratches or dirt on the conveyor 13 and it does not completely match the background image (BI), the object can be cut out appropriately and extracted image data (SD) of the object can be created. there is.

또, 엄밀하게 물체가 비치는 부분만을 추출할 필요는 없고, 배경 화상 (BI) 이 남도록 물체를 잘라내어, 그 물체의 추출 화상 데이터 (SD) 를 작성해도 되고, 예를 들어, 물체의 부분을 포함하는 장방 형상이나 원 형상으로 잘라낼 수도 있다. 이와 같이, 배경 화상 (BI) 이 남도록 물체를 잘라내는 경우, 그 형상은 특별히 한정되지 않지만, 남은 배경 화상 (BI) 의 면적이 작아지는 형상이 바람직하다.In addition, it is not necessary to strictly extract only the part where the object is reflected, and the object may be cut out so that the background image (BI) remains, and extracted image data (SD) of the object may be created, for example, including the part of the object. You can also cut it into a rectangular or circular shape. In this way, when cutting out an object so that the background image BI remains, the shape is not particularly limited, but a shape that reduces the area of the remaining background image BI is preferable.

(화상 합성부 (122b))(Image synthesis unit 122b)

화상 합성부 (122b) 는, 도 6 에 나타내는 바와 같이, 화상 추출부 (122a) 에서 작성된 물체 A ∼ C 의 추출 화상 데이터 (SD) 중에서, 랜덤하게 몇 개의 데이터를 선택하고, 배경 화상 (BI) 에, 랜덤한 위치, 각도, 사이즈로 합성하여, 인공적인 혼합물 (MO) 의 화상 데이터 (ID) 를 작성한다.As shown in FIG. 6, the image synthesis unit 122b randomly selects some data from the extracted image data (SD) of objects A to C created by the image extraction unit 122a and creates a background image (BI). Then, image data (ID) of an artificial mixture (MO) is created by compositing at random positions, angles, and sizes.

즉, 화상 합성부 (122b) 는, 추출 화상 데이터 (SD) 의 위치, 각도, 사이즈를 변경함으로써, 적은 물체 A ∼ C 의 화상 데이터 (ID) 로부터, 다수의 인공적인 혼합물 (MO) 의 화상 데이터 (ID) 를 작성할 수 있다. 또한, 화상 추출부 (122a) 의 항목에서 설명한 바와 같이, 배경 화상 (BI) 이 남도록 물체를 잘라내어 추출 화상 데이터 (SD) 를 작성하는 양태로 한 경우, 화상 합성부 (122b) 가, 추출 화상 데이터 (SD) 끼리가 겹치는 위치에서 추출 화상 데이터 (SD) 를 합성하여 혼합물 (MO) 의 화상 데이터 (ID) 를 작성하지 않게 한다. 추출 화상 데이터 (SD) 가 남은 배경 화상 (BI) 의 부분이, 다른 추출 화상 데이터 (SD) 의 물체의 부분과 겹침으로써, 그 물체의 형상이 바뀌는 것을 방지하기 위해서이다.That is, the image synthesis unit 122b changes the position, angle, and size of the extracted image data (SD), from the image data (ID) of a small number of objects A to C, to the image data of a large number of artificial mixtures (MO). (ID) can be written. In addition, as explained in the section on the image extraction unit 122a, in the case where the object is cut out so that the background image BI remains, and the extracted image data SD is created, the image synthesis unit 122b generates the extracted image data. Extracted image data (SD) is synthesized at positions where (SD) overlap each other, so that image data (ID) of the mixture (MO) is not created. This is to prevent the shape of the object from changing by overlapping the part of the background image (BI) in which the extracted image data (SD) remains with the part of the object in other extracted image data (SD).

(해답 작성부 (122c))(Answer writing section (122c))

해답 작성부 (122c) 는, 화상 합성부 (122b) 에서 작성된 인공적인 혼합물 (MO) 의 화상 데이터 (ID) 의 어느 위치에 물체 A ∼ C 중 어느 것이 배치되어 있는지를 기록한 정보를 인공적인 혼합물 (MO) 의 화상 데이터 (ID) 에 관련지은 데이터인 학습 데이터 (LD) 를 작성한다.The answer creation unit 122c stores information recording which of the objects A to C is placed at which position in the image data (ID) of the artificial mixture (MO) created in the image combining unit 122b, as the artificial mixture ( Learning data (LD), which is data related to the image data (ID) of MO), is created.

(학습부 (123))(Study Department (123))

학습부 (123) 는, 인공 지능을 갖고, 학습 데이터 작성부 (122) 에서 작성된 학습 데이터 (LD) 를 사용하여, 물체 A ∼ C 를 판별하는 방법을 학습하고, 학습 모델 (GM) 을 작성한다.The learning unit 123 has artificial intelligence and uses the learning data (LD) created in the learning data creation unit 122 to learn how to discriminate objects A to C and creates a learning model (GM). .

구체적으로는, 먼저, 학습 데이터 (LD) 중의 인공적인 혼합물 (MO) 의 화상 데이터 (ID) 에 비치는 각 물체가 물체 A 일 확률을 산출한다. 마찬가지로, 물체 B 일 확률 및 물체 C 일 확률을 산출한다 (이들의 산출한 확률을, 이하에서는 인식률 (RR) 이라고 한다. 또, 인식률 (RR) 은, 특허청구범위에 있어서의 「제 2 인식률」의 일례에 대응한다.). 다음으로, 각 물체를, 물체 A ∼ C 의 인식률 (RR) 중 가장 높았던 종류의 물체라고 예상하고, 해답 작성부 (122c) 에서 관련지어진 정보에 기초하여 예상이 맞았는지 여부를 조사한다. 이것을 반복하여 얻어진 지식이나 경험을 데이터화한 것인 학습 모델 (GM) 을 작성하고, 보존한다.Specifically, first, the probability that each object reflected in the image data (ID) of the artificial mixture (MO) in the learning data (LD) is object A is calculated. Similarly, the probability of object B and the probability of object C are calculated (the calculated probabilities are hereinafter referred to as recognition rate (RR). Additionally, recognition rate (RR) is the "second recognition rate" in the scope of the patent claims. corresponds to an example of ). Next, each object is predicted to be the type of object with the highest recognition rate (RR) among objects A to C, and it is checked whether the prediction was correct based on the related information in the answer creation unit 122c. By repeating this, a learning model (GM), which is a data conversion of the knowledge and experience obtained, is created and saved.

(선별 대상 선택부 (124))(Selection target selection section (124))

선별 대상 선택부 (124) 는, 유저가 물체 A ∼ C 중에서 선택한 선별 대상물 (SO) 의 정보를 학습 모델 (GM) 에 관련지은 데이터인 레시피 (RE) 를 작성하고, 보존한다. 운전 모드에 있어서, 유저에게 선택된 레시피 (RE) 는 판단부 (125) 에 판독 출력된다.The selection object selection unit 124 creates and stores a recipe (RE), which is data that relates information on the selection object (SO) selected by the user from objects A to C to the learning model (GM). In the operation mode, the recipe (RE) selected by the user is read and output to the judgment unit 125.

이상과 같이, 선별 장치 (1) 는, 학습부 (123) 에는 물체 A ∼ C 를 판별하는 방법을 학습시켜, 선별 대상물 (SO) 이 어느 것인지는 학습시키지 않는 양태이다. 이로써, 예를 들어, 선별 대상물 (SO) 을 물체 A 에서 물체 B 로 변경하고자 하는 경우라 하더라도, 선별 대상 선택부 (124) 에서 선별 대상물 (SO) 로서 물체 B 를 선택하기만 하면 되기 때문에, 학습부 (123) 에 학습을 다시 시킬 필요가 없다. 또한, 학습부 (123) 에 학습시키기 전에, 선별 대상물 (SO) 을 선택하는 양태로 해도 된다.As described above, the sorting device 1 is configured to teach the learning unit 123 how to discriminate between objects A to C, but does not teach it which sorting object SO is. As a result, even if, for example, you want to change the selection object (SO) from object A to object B, you only need to select object B as the selection object (SO) in the selection object selection unit 124, so that learning There is no need to re-learn part (123). Additionally, the selection object SO may be selected before being taught by the learning unit 123.

(임계값 설정부 (126))(Threshold setting unit 126)

임계값 설정부 (126) 는, 선별 대상물 (SO) 의 인식률 (RR) 에 대해 임계값을 설정한다. 설정된 임계값의 정보는, 제 2 제어부 (141) 로 송신되어, 선별 대상물 (SO) 을 선별할 때에 참조된다 (상세한 내용은 후술한다.). 또한, 임계값은 반드시 설정하지는 않아도 된다.The threshold setting unit 126 sets a threshold for the recognition rate (RR) of the selection object (SO). Information on the set threshold value is transmitted to the second control unit 141 and referred to when selecting the selection object SO (details will be described later). Additionally, the threshold does not necessarily need to be set.

(판단부 (125))(Judgment Department (125))

판단부 (125) 는, 인공 지능을 갖고, 운전 모드 (OM) 에 있어서, 선별 대상 선택부 (124) 로부터 레시피 (RE) 를 판독 출력하고, 이 레시피 (RE) 에 기초하여, 라인 센서 카메라 (11) 에서 작성되고, 송신된 혼합물 (MO) 의 화상 데이터 (ID) 중에서, 물체 A 의 유무를 판단하고, 물체 A 가 있는 경우에는, 그 픽셀 단위의 위치의 정보를 제 2 제어부 (141) 에 송신한다.The judgment unit 125 has artificial intelligence, reads and outputs a recipe (RE) from the selection object selection unit 124 in the operation mode (OM), and based on this recipe (RE), selects a line sensor camera ( 11) Among the image data (ID) of the mixture (MO) created and transmitted, the presence or absence of object A is determined, and if object A is present, the pixel-unit position information is sent to the second control unit 141. Send.

물체 A 의 유무의 판단은, 학습부 (123) 와 마찬가지로, 각 물체의 물체 A ∼ C 의 인식률 (RR) 을 산출하고, 물체 A 의 인식률 (RR) 이 가장 높았던 물체를 물체 A 라고 판단한다. 또한, 마찬가지로, 물체 B 의 인식률 (RR) 이 가장 높았던 물체는 물체 B 라고 판단하고, 물체 C 의 인식률 (RR) 이 가장 높았던 물체는 물체 C 라고 판단한다.To determine the presence or absence of object A, similarly to the learning unit 123, the recognition rates (RR) of objects A to C for each object are calculated, and the object for which the recognition rate (RR) of object A is the highest is determined to be object A. Also, similarly, the object for which object B's recognition rate (RR) was highest is determined to be object B, and the object for which object C's recognition rate (RR) was highest is determined to be object C.

(컨베이어 (13))(Conveyor (13))

컨베이어 (13) 는, 라인 센서 카메라 (11) 의 촬상 범위를 통과하여, 에어 분사 노즐 (14) 의 위치로 물체를 흐르게 하여 이동시키는 부재이다. 컨베이어 (13) 는, 소정의 속도로 물체를 이동시킨다. 또, 컨베이어 (13) 에는 인코더 (131) 가 형성되고, 인코더 (131) 는 컨베이어 (13) 가 소정 거리 이동할 때마다 라인 센서 카메라 (11), 제 1 제어부 (12) 및 제 2 제어부 (141) 에 펄스를 송신한다. 라인 센서 카메라 (11) 는, 이 펄스를 받을 때마다 촬상을 실시한다. 즉, 라인 센서 카메라 (11) 에 의해 촬상되는 화상 데이터 (ID) 의 1 픽셀은 소정 거리에 상당한다. 또, 제 1 제어부 (12) 및 제 2 제어부 (141) 는, 이 펄스에 기초하여, 물체의 위치를 특정한다.The conveyor 13 is a member that flows and moves an object through the imaging range of the line sensor camera 11 to the position of the air injection nozzle 14. The conveyor 13 moves objects at a predetermined speed. In addition, an encoder 131 is formed on the conveyor 13, and the encoder 131 controls the line sensor camera 11, the first control unit 12, and the second control unit 141 every time the conveyor 13 moves a predetermined distance. Send a pulse to The line sensor camera 11 captures images each time it receives this pulse. That is, one pixel of image data (ID) captured by the line sensor camera 11 corresponds to a predetermined distance. Additionally, the first control unit 12 and the second control unit 141 specify the position of the object based on this pulse.

(에어 분사 노즐 (14))(Air blowing nozzle (14))

에어 분사 노즐 (14) 은, 선별 대상물 (SO) 의 인식률 (RR) 이 임계값 설정부 (126) 에서 설정된 임계값 이상인 선별 대상물 (SO) 에 대해 압축 공기를 내보내어, 선별 대상물 (SO) 을 선별하는 부재이다. 선별 장치 (1) 는, 복수의 에어 분사 노즐 (14) 이, 컨베이어 (13) 의 폭 방향 전체에 미소 간격으로 배치된다. 상기 구성에 의해, 인식률 (RR) 과 유저가 설정할 수 있는 임계값을 서로 연결시켜 선별 대상을 판단하기 때문에, 인공 지능을 이용하면서도, 선별 정밀도를 유저가 컨트롤할 수 있게 되어, 선별 정밀도에 대한 유저의 요구에 따른 선별이 가능해진다. 구체적으로, 임계값을 낮게 설정하면 대략적인 분류가 가능하고, 임계값을 높게 설정하면 원하는 물체만을 고정밀도로 추출할 수 있다. 또한, 선별하는 대상은, 선별 대상물 (SO) 의 인식률 (RR) 이 임계값 설정부 (126) 에서 설정된 임계값 이상인 선별 대상물 (SO) 에 한정되지 않는다. 예를 들어, 선별 대상물 (SO) 의 인식률 (RR) 이 임계값 설정부 (126) 에서 설정된 임계값보다 큰 선별 대상물 (SO) 을 선별하는 양태로 해도 된다. 또, 상한과 하한의 임계값을 설정하여, 그 사이의 인식률 (RR) 의 선별 대상물 (SO) 을 선별하는 양태로 해도 되고, 임계값을 설정하지 않고, 모든 선별 대상물 (SO) 을 선별하는 양태로 해도 된다. 게다가 또한, 선별 대상물 (SO) 이외에 대해 압축 공기를 내보내어, 선별 대상물 (SO) 을 선별하는 양태로 해도 된다.The air injection nozzle 14 emits compressed air to the sorting object (SO) whose recognition rate (RR) is equal to or higher than the threshold set in the threshold setting unit 126, and selects the sorting object (SO). It is an absence of selection. In the sorting device 1, a plurality of air injection nozzles 14 are arranged at minute intervals throughout the width direction of the conveyor 13. With the above configuration, the recognition rate (RR) and the threshold that can be set by the user are linked to determine the selection target, allowing the user to control the selection precision while using artificial intelligence, allowing the user to control the selection precision. Selection according to needs becomes possible. Specifically, if the threshold is set low, rough classification is possible, and if the threshold is set high, only the desired object can be extracted with high precision. In addition, the object to be sorted is not limited to the selection object SO whose recognition rate RR is equal to or greater than the threshold set in the threshold setting unit 126. For example, the recognition rate (RR) of the selection object SO may be greater than the threshold set in the threshold setting unit 126 for selecting the selection object SO. Alternatively, an upper limit and a lower limit threshold may be set to select selection objects (SO) with recognition rates (RR) between them, or all selection objects (SO) may be selected without setting a threshold. You can also do this. In addition, compressed air may be sent to items other than the sorting object SO to sort the sorting object SO.

또, 에어 분사 노즐 (14) 은, 제 2 제어부 (141) 로부터, 압축 공기를 분사하는 타이밍인 분사 타이밍을 지시받는다. 구체적으로 제 2 제어부는, 먼저, 도 7 에 나타내는 바와 같이, 판단부 (125) 로부터 송신된 물체 A 의 위치 정보에 기초하여, 압축 공기를 분사하는 분사 영역 (IR) 을 설정한다. 다음으로, 에어 분사 노즐 (14) 마다 분사 영역 (IR) 에 기초하여 분사 타이밍을 설정한다. 분사 타이밍은, 컨베이어 (13) 의 진행 방향에 대해 소정의 시간 간격으로 형성된다. 즉, 도 7 에 나타내는 혼합물 (MO) 의 화상 데이터 (ID) 를 예로 하여 생각하면, 화상 데이터 (ID) 의 상단부가 에어 분사 노즐 (14) 의 위치에 도달한 시간 T0 을 기준으로, d ∼ h 열의 에어 분사 노즐 (14) 에 대해, 에어 분사 노즐 (14) 이 분사 영역 (IR) 을 통과하는 타이밍에 압축 공기를 분사하도록 지시한다.Additionally, the air injection nozzle 14 receives instructions from the second control unit 141 regarding the injection timing, which is the timing for injecting compressed air. Specifically, the second control unit first sets the injection area IR for spraying compressed air based on the positional information of the object A transmitted from the determination unit 125, as shown in FIG. 7 . Next, the injection timing is set for each air injection nozzle 14 based on the injection area IR. The injection timing is formed at predetermined time intervals with respect to the moving direction of the conveyor 13. That is, considering the image data ID of the mixture MO shown in FIG. 7 as an example, d to h based on the time T0 when the upper end of the image data ID reaches the position of the air injection nozzle 14. The air injection nozzles 14 in the row are instructed to spray compressed air at the timing when the air injection nozzles 14 pass through the injection region IR.

에어 분사 노즐 (14) 에 의해 압축 공기가 분사된 물체 A 는, 컨베이어 (13) 의 하부에 배치되고, 선별되는 재질의 종류마다 형성된 회수 호퍼 (3) 의 호퍼 (31) 에 의해 회수된다. 에어 분사 노즐 (14) 에 의해 압축 공기가 분사되지 않는 물체 B, 물체 C 는, 호퍼 (32) 에 의해 회수된다.The object A, to which compressed air has been blown by the air blowing nozzle 14, is placed at the lower part of the conveyor 13 and is recovered by the hopper 31 of the recovery hopper 3 provided for each type of material to be sorted. The objects B and C, on which compressed air is not blown by the air blowing nozzle 14, are collected by the hopper 32.

(컨트롤러 (15))(Controller (15))

컨트롤러 (15) 는, 터치 패널식의 컨트롤러로서, 유저는, 컨트롤러 (15) 를 사용함으로써, 선별 장치 (1) 를 용이하게 조작할 수 있다. 컨트롤러 (15) 는, 모드 전환 버튼 (15a) (특허청구범위에 있어서의 「모드 전환 지시부」의 일례에 대응한다.), 촬상 버튼 (15b) (특허청구범위에 있어서의 「데이터 취득 지시부」의 일례에 대응한다.), 학습 데이터 작성 버튼 (15c) (특허청구범위에 있어서의 「학습 데이터 작성 지시부」의 일례에 대응한다.), 학습 개시 버튼 (15d) (특허청구범위에 있어서의 「학습 개시 지시부」의 일례에 대응한다.), 선별 대상 선택 버튼 (15e) (특허청구범위에 있어서의 「선별 대상 선택 지시부」의 일례에 대응한다.), 임계값 설정 버튼 (15h) (특허청구범위에 있어서의 「임계값 설정부」의 일례에 대응한다.), 운전 개시 버튼 (15f) (특허청구범위에 있어서의 「운전 개시 지시부」의 일례에 대응한다.) 및 운전 종료 버튼 (15g) 을 구비한다.The controller 15 is a touch panel type controller, and the user can easily operate the sorting device 1 by using the controller 15. The controller 15 includes a mode switching button 15a (corresponding to an example of the “mode switching instruction section” in the patent claims) and an imaging button 15b (corresponding to an example of the “data acquisition instruction section” in the patent claims). Corresponds to an example), learning data creation button 15c (corresponds to an example of the “learning data creation instruction unit” in the patent claims), learning start button 15d (corresponds to the “learning data creation instruction unit” in the patent claims) (Corresponds to an example of the “starting instruction section”), selection target selection button 15e (corresponds to an example of the “selection target selection instruction section” in the patent claims), threshold value setting button 15h (scope of the patent claims) ), an operation start button 15f (corresponds to an example of an “operation start instruction unit” in the patent claims), and an operation end button 15g. Equipped with

(선별 장치 (1) 의 조작 방법)(How to operate the sorting device (1))

이하에서 컨트롤러 (15) 를 사용하여 선별 장치 (1) 를 조작하는 방법에 대하여 설명한다.Hereinafter, a method of operating the sorting device 1 using the controller 15 will be described.

(학습 모드 (LM) 에 있어서의 조작 방법)(Operation method in learning mode (LM))

학습 모드 (LM) 에 있어서의, 선별 장치 (1) 의 조작 방법에 대하여 도 8 의 기능 블록도, 도 9 의 플로 차트 및 도 10 ∼ 도 17 의 컨트롤러 (15) 에 표시되는 화면의 설명도에 기초하여 설명한다.The operating method of the sorting device 1 in the learning mode (LM) is shown in the functional block diagram of FIG. 8, the flow chart of FIG. 9, and the explanatory drawings of the screen displayed on the controller 15 of FIGS. 10 to 17. Explain based on this.

먼저, 스텝 ST101 에서 모드 전환 버튼 (15a) 을 사용하여, 선별 장치 (1) 를 학습 모드 (LM) 로 전환한다. 선별 장치 (1) 를 기동시켰을 때, 컨트롤러 (15) 에는 도 10 에 나타내는 화면이 표시되기 때문에, 학습 모드 버튼 (151a) 을 누름으로써 선별 장치 (1) 를 학습 모드 (LM) 로 전환하여, 컨트롤러 (15) 에 도 11 에 나타내는 화면이 표시된다.First, in step ST101, the mode switching button 15a is used to switch the sorting device 1 to the learning mode (LM). When the selection device 1 is activated, the screen shown in Fig. 10 is displayed on the controller 15, so the selection device 1 is switched to the learning mode (LM) by pressing the learning mode button 151a, and the controller 15 At (15), the screen shown in FIG. 11 is displayed.

다음으로, 스텝 ST102 에서 라인 센서 카메라 (11) 에 물체 A ∼ C 의 화상 데이터 (ID) 및 배경 화상 (BI) 을 작성시킨다. 유저는, 복수의 물체 A 를 컨베이어에 흐르게 하고, 도 11 에 나타나는 화면에 있어서의 촬상 버튼 (15b) 을 누르면 라인 센서 카메라 (11) 는 촬상을 개시하고, 물체 A 의 화상 데이터 (ID) 를 작성한다. 물체 A 의 화상 데이터 (ID) 의 취득이 완료되면, 컨트롤러 (15) 에는, 도 12 에 나타내는 화면이 표시되기 때문에, 유저는 명칭 입력부 (151b) 에 물체 A 의 명칭을 입력하고, 기억부 (121) 에 보존한다. 물체 A 의 보존이 완료되면, 컨트롤러 (15) 에는 다시 도 11 의 화면이 표시되기 때문에, 유저는, 동일한 순서로, 물체 B, C 및 배경 화상 (BI) 의 촬영을 실시한다.Next, in step ST102, the line sensor camera 11 is made to create image data (ID) and background images (BI) of objects A to C. When the user flows a plurality of objects A on the conveyor and presses the imaging button 15b on the screen shown in FIG. 11, the line sensor camera 11 starts imaging and creates image data (ID) of the objects A. do. When acquisition of image data (ID) of object A is completed, the screen shown in FIG. 12 is displayed on the controller 15, so the user inputs the name of object A into the name input unit 151b and enters the storage unit 121. ) is preserved in . When the storage of object A is completed, the screen in FIG. 11 is displayed again on the controller 15, so the user photographs objects B, C and the background image BI in the same order.

이어서, 스텝 ST103 에서 학습 데이터 작성부에 학습 데이터 (LD) 를 작성시킨다. 유저가, 도 11 에 나타나는 화면에 있어서의 학습 데이터 작성 버튼 (15c) 을 누르면, 컨트롤러 (15) 에는 도 13 에 나타내는 화면이 표시된다. 유저는, 물체 선택 버튼 (151c) 을 누름으로써 도 14 에 나타내는 바와 같이 표시되는 기억부 (121) 에 보존된 물체의 명칭의 일람으로부터, 학습 데이터 (LD) 의 작성에 사용하는 물체 (본 설명의 경우에는 「물체 A」, 「물체 B」, 「물체 C」) 를 선택한다. 선택을 완료하면, 컨트롤러 (15) 에는 다시 도 13 에 나타내는 화면이 표시되기 때문에, 데이터수 입력부 (152c) 에 작성하는 학습 데이터 (LD) 의 수를 입력한다. 입력이 완료되면, 컨트롤러 (15) 에는 도 15 에 나타내는 바와 같이, 유저에게 학습 데이터 (LD) 의 작성이 완료될 때까지의 예상 시간을 나타내는 대기 화면이 표시된다. 학습 데이터 (LD) 의 작성이 완료되면, 컨트롤러 (15) 에는 도 11 에 나타내는 화면이 표시된다.Next, in step ST103, the learning data (LD) is created in the learning data creation unit. When the user presses the learning data creation button 15c on the screen shown in FIG. 11, the screen shown in FIG. 13 is displayed on the controller 15. By pressing the object selection button 151c, the user selects an object (as described in this description) to be used for creating learning data LD from the list of names of objects stored in the storage unit 121 displayed as shown in FIG. 14. In this case, select “Object A”, “Object B”, “Object C”). Once the selection is completed, the screen shown in FIG. 13 is displayed again on the controller 15, so the number of learning data LD to be created is input into the data number input section 152c. When the input is completed, the controller 15 displays a standby screen, as shown in FIG. 15, showing the user the expected time until creation of the learning data LD is completed. When creation of the learning data LD is completed, the screen shown in FIG. 11 is displayed on the controller 15.

마지막으로, 스텝 ST104 에서 학습부 (123) 에 학습 데이터 (LD) 를 사용하여 학습시켜, 학습 모델 (GM) 을 작성시킨다. 유저가, 도 11 에 나타나는 화면에 있어서의 학습 개시 버튼 (15d) 을 누르면, 컨트롤러 (15) 에는 도 16 에 나타내는 화면이 표시된다. 유저는, 도 16 에 나타내는 바와 같이 표시되는 학습 데이터 작성부 (122) 에 보존된 학습 데이터 (LD) 의 일람 (학습 데이터 (LD) 의 작성에 사용된 물체의 명칭이 표시된다.) 으로부터, 학습부 (123) 의 학습에 사용하는 학습 데이터 (LD) (본 설명의 경우에는 「물체 A, 물체 B, 물체 C」) 를 선택한다. 선택을 완료하면, 컨트롤러 (15) 에는 도 17 에 나타내는 바와 같이, 유저에게 학습 모델 (GM) 의 작성이 완료될 때까지의 예상 시간을 나타내는 대기 화면이 표시된다. 학습 모델 (GM) 의 작성이 완료되면, 컨트롤러 (15) 에는 도 11 에 나타내는 화면이 표시된다.Finally, in step ST104, the learning unit 123 is trained using the learning data (LD) to create a learning model (GM). When the user presses the learning start button 15d on the screen shown in FIG. 11, the screen shown in FIG. 16 is displayed on the controller 15. The user learns from the list of learning data LD stored in the learning data creation unit 122 displayed as shown in FIG. 16 (the name of the object used to create the learning data LD is displayed). Learning data (LD) (“object A, object B, object C” in the case of this explanation) used for learning of unit 123 is selected. Upon completing the selection, the controller 15 displays a waiting screen showing the user the expected time until creation of the learning model (GM) is completed, as shown in FIG. 17. When creation of the learning model (GM) is completed, the screen shown in FIG. 11 is displayed on the controller 15.

(운전 모드 (OM) 에 있어서의 조작 방법)(Operation method in operation mode (OM))

운전 모드 (OM) 에 있어서의, 선별 장치 (1) 의 조작 방법에 대하여 도 8 의 기능 블록도, 도 18 의 플로 차트 및 도 19 ∼ 도 21 의 컨트롤러 (15) 에 표시되는 화면의 설명도에 기초하여 설명한다.The operating method of the sorting device 1 in the operation mode (OM) is shown in the functional block diagram of Fig. 8, the flow chart of Fig. 18, and the explanatory drawings of the screen displayed on the controller 15 of Figs. 19 to 21. Explain based on this.

먼저, 스텝 ST201 에서 모드 전환 버튼 (15a) 을 사용하여, 선별 장치 (1) 를 운전 모드 (OM) 로 전환한다. 선별 장치 (1) 를 기동시켰을 때, 컨트롤러 (15) 에는 도 10 에 나타내는 화면이 표시되기 때문에, 운전 모드 버튼 (152a) 을 누름으로써 선별 장치 (1) 는 운전 모드 (OM) 로 전환되어, 컨트롤러 (15) 에 도 19 에 나타내는 화면이 표시된다.First, in step ST201, the mode switching button 15a is used to switch the sorting device 1 to the operation mode (OM). When the sorting device 1 is activated, the screen shown in FIG. 10 is displayed on the controller 15, so by pressing the operation mode button 152a, the sorting device 1 is switched to the operation mode (OM), and the controller 15 (15) The screen shown in FIG. 19 is displayed.

다음으로, 스텝 ST202 에서 선별 대상물 (SO) 로 물체 A 를 선택하고, 선별 대상 선택부 (124) 에 레시피 (RE) 를 작성시킨다. 유저가, 도 19 에 나타나는 화면에 있어서의 선별 대상 선택 버튼 (15e) 을 누르면, 컨트롤러 (15) 에는 도 20 에 나타내는 화면이 표시된다. 유저는, 도 20 에 나타내는 바와 같이 표시되는 학습부 (123) 에 보존된 학습 모델 (GM) 의 일람 (학습 모델 (GM) 의 작성에 사용된 물체의 명칭이 표시된다.) 으로부터, 판별에 사용할 학습 모델 (GM) (이 실시예의 경우에는 「물체 A, 물체 B, 물체 C」) 을 선택한다. 선택을 완료하면, 컨트롤러 (15) 에는 도 21 에 나타내는 화면이 표시된다. 유저는, 도 21 에 나타내는 바와 같이 표시되는 선택한 학습 모델 (GM) 의 작성에 사용된 물체의 일람으로부터, 선별 대상물 (SO) (본 설명의 경우에는 「물체 A」) 을 선택한다. 선택을 완료하면, 선별 대상 선택부 (124) 는 레시피 (RE) 를 작성하고, 컨트롤러 (15) 에는 도 19 에 나타내는 화면이 표시된다.Next, in step ST202, object A is selected as the selection object SO, and a recipe RE is created in the selection object selection unit 124. When the user presses the selection target selection button 15e on the screen shown in FIG. 19, the screen shown in FIG. 20 is displayed on the controller 15. The user can use the list of learning models (GM) stored in the learning unit 123 displayed as shown in FIG. 20 (the name of the object used to create the learning model (GM) is displayed) to use for discrimination. A learning model (GM) (in this example, “object A, object B, object C”) is selected. When selection is completed, the screen shown in FIG. 21 is displayed on the controller 15. The user selects the selection object SO (“object A” in the case of this description) from the list of objects used to create the selected learning model GM displayed as shown in FIG. 21. When selection is completed, the selection object selection unit 124 creates a recipe RE, and the screen shown in FIG. 19 is displayed on the controller 15.

이어서, 스텝 ST203 에서 선별 대상물 (SO) 의 인식률 (RR) 에 대해 임계값을 설정시킨다. 유저가, 도 19 에 나타나는 화면에 있어서의 임계값 설정 버튼 (15h) 을 누르면, 컨트롤러 (15) 에는 도 22 에 나타내는 화면이 표시되기 때문에, 임계값 입력부 (151h) 에 원하는 임계값을 입력한다. 입력이 완료되면, 임계값 설정부 (126) 는, 임계값의 정보를 제 2 제어부 (141) 에 송신하고, 컨트롤러 (15) 에는 도 19 에 나타내는 화면이 표시된다.Next, in step ST203, a threshold value is set for the recognition rate (RR) of the selection object (SO). When the user presses the threshold value setting button 15h on the screen shown in FIG. 19, the screen shown in FIG. 22 is displayed on the controller 15, and a desired threshold value is input into the threshold value input unit 151h. When the input is completed, the threshold setting unit 126 transmits the threshold value information to the second control unit 141, and the screen shown in FIG. 19 is displayed on the controller 15.

또한, 임계값 입력부 (151h) 에 원하는 임계값을 입력하지 않은 경우에는, 임계값을 설정하지 않은 것으로 판단하여 모든 선별 대상물 (SO), 요컨대, 선별 대상물 (SO) 에 설정한 물체의 인식률 (RR) 이 가장 높았던 물체 전부를 선별한다. 또, 유저가 임계값을 설정하는 수단은 컨트롤러 (15) 의 터치 패널에 표시되는 임계값 설정 버튼 (15h) 에 한정되지 않는다. 예를 들어, 임계값 설정 버튼 (15h) 대신에 터치 패널에 시크 바를 표시하고, 그 시크 바를 사용하여 임계값의 설정을 실시할 수 있도록 구성해도 된다. 부언하면, 임계값을 설정하는 수단은 터치 패널을 사용한 것에 한정되지 않고, 예를 들어, 버튼이나 로터리 스위치 등을 컨트롤러 (15) 에 형성하여, 이것들에 의해 임계값의 설정을 할 수 있도록 구성해도 되고, 전술한 임계값을 설정하는 수단을 병용하는 양태여도 된다. 게다가 또한, 임계값의 설정은, 스텝 ST203 뿐만 아니라, 후술하는 스텝 ST204 에서 실시할 수 있도록 해도 된다. 이 구성에 의하면, 유저는, 실제의 선별 결과를 확인하고, 임계값을 미조정할 수도 있다. 이 때, 임계값을 설정하는 수단이 전술한 시크 바나 로터리 스위치를 사용한 것이라면, 감각적으로 조작하는 것이 가능해져, 미조정에 바람직하다.In addition, when the desired threshold value is not input to the threshold input unit 151h, it is determined that the threshold value has not been set and the recognition rate (RR) of all selection objects (SO), that is, objects set to the selection objects (SO) ) Select all objects that were the highest. Additionally, the means by which the user sets the threshold value is not limited to the threshold value setting button 15h displayed on the touch panel of the controller 15. For example, instead of the threshold setting button 15h, a seek bar may be displayed on the touch panel, and the seek bar may be used to set the threshold. In addition, the means for setting the threshold value is not limited to using a touch panel. For example, buttons, rotary switches, etc. may be provided on the controller 15 and the threshold value can be set using these. Alternatively, the means for setting the above-mentioned threshold value may be used together. Additionally, the threshold value may be set not only in step ST203 but also in step ST204, which will be described later. According to this configuration, the user can check the actual selection result and fine-adjust the threshold value. At this time, if the means for setting the threshold value uses the above-described seek bar or rotary switch, it becomes possible to operate sensuously, which is desirable for fine adjustment.

이어서, 스텝 ST204 에서 물체 A 를 선별시킨다. 유저는, 혼합물 (MO) 을 컨베이어에 흐르게 하고, 도 19 에 나타나는 화면에 있어서의 운전 개시 버튼 (15f) 을 누르면, 라인 센서 카메라 (11) 는 촬상을 개시하고, 판단부 (125) 는 물체 A 의 유무 및 물체 A 의 픽셀 단위의 위치를 판단하고, 이 판단에 기초하여, 에어 분사 노즐 (14) 은 물체 A 를 선별한다.Next, object A is selected in step ST204. When the user flows the mixture MO on the conveyor and presses the operation start button 15f on the screen shown in FIG. 19, the line sensor camera 11 starts imaging, and the judgment unit 125 detects object A. The presence or absence of and the pixel-unit position of the object A are determined, and based on this judgment, the air injection nozzle 14 selects the object A.

마지막으로, 스텝 ST205 에서, 운전 종료 버튼 (15g) 을 눌러, 선별을 종료시킨다.Finally, in step ST205, the operation end button 15g is pressed to end the selection.

또한, 컨트롤러 (15) 의 양태나 화면의 표시는 전술한 것에 한정되지 않고, 유저가 선별 장치 (1) 를 용이하게 조작할 수 있도록 적절히 변경해도 된다. 예를 들어, 누름 버튼을 사용한 컨트롤러 (15) 여도 되고, 이 경우, 모드 전환 버튼 (15a) 은 불필요하다. 또, 모드 전환 버튼 (15a) 을 형성하지 않고, 한 화면에 모든 버튼을 표시하는 양태로 해도 된다. 또, 컨트롤러 (15) 에, 유저에 대해 다음 조작을 지시하는 표시를 해도 된다.In addition, the mode of the controller 15 and the screen display are not limited to those described above, and may be changed appropriately so that the user can easily operate the selection device 1. For example, the controller 15 may use push buttons, and in this case, the mode switching button 15a is unnecessary. Additionally, the mode switching button 15a may not be provided and all buttons may be displayed on one screen. Additionally, a display may be displayed on the controller 15 to instruct the user to perform the next operation.

또, 전술한 실시형태에서는, 각각의 버튼에 각각 다른 기능을 갖게 하고 있지만, 각각의 기능이 연동되거나, 소정의 버튼이 여러 가지의 기능을 겸용하도록 해도 된다. 예를 들어, 학습 데이터 작성 버튼 (15c) 을 누름으로써, 학습 데이터 (LD) 를 작성함과 함께, 그 학습 데이터에 기초하여 학습 모델 (GM) 을 작성하도록 해도 된다. 또, 예를 들어, 운전 개시 버튼 (15f) 이 운전 종료를 지시하는 기능을 겸하고 있어, 1 회째의 운전 개시 버튼 (15f) 의 누름에 의해 운전이 개시되고, 2 회째의 누름에 의해 운전이 종료되도록 해도 된다. 또, 전술한 실시형태에서는, 물체 A 를 선별 대상으로 하여 설명하고 있지만, 복수의 물체를 선별 대상으로 하고, 그에 따라 에어 분사 노즐이나 호퍼를 복수 개 형성하도록 해도 된다.Additionally, in the above-described embodiment, each button is provided with a different function, but each function may be linked, or a given button may serve multiple functions. For example, by pressing the learning data creation button 15c, learning data (LD) may be created and a learning model (GM) may be created based on the learning data. In addition, for example, the operation start button 15f also serves the function of instructing the end of operation, so that operation is started by pressing the operation start button 15f the first time, and operation is ended by pressing the operation start button 15f the second time. You can do it if possible. In addition, in the above-described embodiment, the object A is described as the selection target, but a plurality of objects may be selected as the selection target, and a plurality of air injection nozzles or hoppers may be formed accordingly.

이상 설명한 바와 같이, 본 발명을 적용한 선별 장치 (1) 는, 인공 지능을 이용하여 혼합물 (MO) 의 촬상 데이터로부터 선별 대상물 (SO) 의 유무 및 위치를 판단할 수 있기 때문에, 물체를 선별하는 기준이나 알고리즘의 설정이 불필요한 것에 더하여, 컨트롤러 (15) 에 표시되는 각종 버튼을 사용하여, 임계값을 설정하는 공정을 포함하여, 용이하게 조작할 수 있다. 또, 혼합물의 각 물체가 선별 대상물일 확률을 나타내는 인식률을 인공 지능에 산출시켜, 그 인식률과 유저가 설정할 수 있는 임계값을 서로 연결시켜 선별 대상을 판단하기 때문에, 선별 정밀도를 유저가 컨트롤할 수 있다.As described above, the sorting device 1 to which the present invention is applied can determine the presence or absence and position of the sorting object (SO) from the imaging data of the mixture (MO) using artificial intelligence, so that it can be used as a standard for sorting objects. In addition to the fact that the setting of the algorithm is unnecessary, it can be easily operated, including the step of setting the threshold value, using various buttons displayed on the controller 15. In addition, the recognition rate indicating the probability that each object in the mixture is a selection object is calculated by artificial intelligence, and the recognition rate is linked to a threshold value that can be set by the user to determine the selection target, allowing the user to control the selection precision. there is.

따라서, 본 발명에 의하면, 번잡한 설정 작업의 대부분을 인공 지능이 실시하게 할 수 있는 것에 더하여, 조작부에 의해 간단하게 조작할 수 있음으로써, 유저가 전문적인 기술이나 지식을 가지고 있지 않더라도, 선별 대상물 (SO) 을 선별하기 위한 설정을 용이하게 실시할 수 있다.Therefore, according to the present invention, in addition to having artificial intelligence perform most of the complicated setting work, it can be easily operated by the operation panel, so that the user can select the sorting target even if he or she does not have specialized skills or knowledge. Settings for selecting (SO) can be easily performed.

산업상 이용가능성Industrial applicability

본 발명에 관련된 선별 장치, 선별 방법 및 선별 프로그램 그리고 컴퓨터로 판독 가능한 기록 매체 또는 기억한 기기는, 물체를 2 이상의 종류로 선별하는 용도에 적용할 수 있다.The sorting device, sorting method, sorting program, and computer-readable recording medium or storage device related to the present invention can be applied to the purpose of sorting objects into two or more types.

1 : 선별 장치
11 : 라인 센서 카메라
11a : X 방향 촬상 범위 ; 11b, 11c : 제외 범위 ; 11d : X 방향 유효 범위 ; 11e : X 방향 범위 ; 11f : Y 방향 범위 ; 11g : 중복 범위
12 : 제 1 제어부
121 : 기억부
122 : 학습 데이터 작성부 ; 122a : 화상 추출부 ; 122b : 화상 합성부 ; 122c : 해답 작성부
123 : 학습부
124 : 종류 선택부
126 : 임계값 설정부
125 : 판단부
13 : 컨베이어
131 : 인코더
14 : 에어 분사 노즐
141 : 제 2 제어부
15 : 컨트롤러
15a : 모드 전환 버튼 ; 151a : 학습 모드 버튼 ; 152a : 운전 모드 버튼
15b : 촬상 버튼 ; 151b : 명칭 입력부
15c : 학습 데이터 작성 버튼 ; 151c : 물체 선택 버튼 ; 152c : 데이터수 입력부
15d : 학습 개시 버튼
15e : 선별 대상 선택 버튼
15h : 임계값 설정 버튼 ; 151h : 임계값 입력부
15f : 운전 개시 버튼
15g : 운전 종료 버튼
2 : 공급 장치
21 : 투입 호퍼 ; 22 : 이송 컨베이어 ; 23 : 투입 피더
3 : 회수 호퍼
31, 32 : 호퍼
MO : 혼합물
SO : 선별 대상물
ID : 화상 데이터
LD : 학습 데이터
SD : 추출 화상 데이터
BI : 배경 화상
GM : 학습 모델
RE : 레시피
RR : 인식률
IR : 분사 영역
LM : 학습 모드
OM : 운전 모드
1: Sorting device
11: Line sensor camera
11a: X-direction imaging range; 11b, 11c: Exclusion range; 11d: Effective range in X direction; 11e: X direction range; 11f: Y direction range; 11g: Overlapping ranges
12: first control unit
121: memory unit
122: Learning data creation unit; 122a: image extraction unit; 122b: Image synthesis section; 122c: Answer writing section
123: Learning Department
124: Type selection unit
126: Threshold value setting unit
125: Judgment unit
13: Conveyor
131: encoder
14: Air injection nozzle
141: second control unit
15: controller
15a: Mode switching button; 151a: Learning mode button; 152a: Driving mode button
15b: imaging button; 151b: Name input unit
15c: Create learning data button; 151c: object selection button; 152c: Data number input unit
15d: Start learning button
15e: Screening target selection button
15h: Threshold setting button; 151h: Threshold input unit
15f: Operation start button
15g: End operation button
2: Supply device
21: Input hopper; 22: transfer conveyor; 23: Input feeder
3: Recovery hopper
31, 32: Hopper
MO: mixture
SO: Sorting object
ID: image data
LD: training data
SD: Extracted image data
BI: Background image
GM: learning model
RE: Recipe
RR: Recognition rate
IR: Injection area
LM: Learning mode
OM: driving mode

Claims (23)

복수 종류의 물체로 구성되는 혼합물 중에서 선별 대상물을 선별하는 선별 장치로서,
종류별로 분별된 상기 물체인 종별 물체 또는 상기 혼합물에 기초하는 데이터를 취득하는 데이터 취득부와,
상기 데이터 취득부에 의해 취득된 상기 종별 물체의 데이터로부터 학습 데이터를 작성하는 학습 데이터 작성부와,
상기 학습 데이터 작성부에 의해 작성된 학습 데이터를 사용하여 혼합물을 종류별로 분별하고, 종별 물체로 하는 방법을 학습하고, 그 학습에 의해 얻어진 지식 및 경험을 데이터화한 학습 모델을 작성하는 학습부와,
상기 종별 물체 중에서 상기 선별 대상물의 종류를 선택하는 선별 대상 선택부와,
상기 학습부에서 작성된 학습 모델에 기초하여, 상기 데이터 취득부에서 취득한 혼합물의 촬상 데이터로부터 상기 선별 대상 선택부에서 선택된 종류의 선별 대상물의 유무 및 위치를 판단하는 판단부와,
상기 판단부의 판단 결과에 기초하여 상기 혼합물 중에서 상기 선별 대상물을 선별하는 선별부와,
상기 각 부에 대해, 유저로부터의 조작을 받아 지시를 주는 조작부를 구비하는 선별 장치.
A sorting device that selects a sorting object from a mixture consisting of a plurality of types of objects, comprising:
a data acquisition unit that acquires data based on the type object or the mixture, which is the object classified by type;
a learning data creation unit that creates learning data from data on the type of object acquired by the data acquisition unit;
A learning unit that uses the learning data created by the learning data creation unit to learn how to classify mixtures by type and make objects by type, and to create a learning model that converts the knowledge and experience obtained through the learning into data;
a sorting object selection unit that selects a type of the sorting object from among the types of objects;
A determination unit that determines the presence or absence and location of a selection object of the type selected in the selection object selection unit from the imaging data of the mixture acquired by the data acquisition unit, based on the learning model created in the learning unit;
a sorting unit that selects the sorting object from the mixture based on the judgment result of the judging part;
A sorting device comprising an operation unit that receives operations from a user and gives instructions to each of the above units.
제 1 항에 있어서,
상기 조작부가,
상기 데이터 취득부에 데이터의 취득을 지시하는 데이터 취득 지시부와,
상기 학습 데이터 작성부에 상기 학습 데이터의 작성 개시를 지시하는 학습 데이터 작성 지시부와,
상기 학습부에 상기 학습 모델의 작성을 지시하는 학습 개시 지시부와,
상기 선별 대상 선택부에 상기 선별 대상물의 종류의 선택을 지시하는 선별 대상 선택 지시부와,
상기 판단부에 상기 선별 대상물의 유무 및 위치를 판단하게 하고, 상기 선별부에, 그 판단 결과에 기초하여 상기 혼합물 중에서 상기 선별 대상물을 선별하게 하는 운전 개시 지시부를 구비하는 것을 특징으로 하는 선별 장치.
According to claim 1,
The control unit,
a data acquisition instruction unit that instructs the data acquisition unit to acquire data;
a learning data creation instruction unit instructing the learning data creation unit to start creation of the learning data;
a learning start instruction unit instructing the learning unit to create the learning model;
a selection object selection instruction unit that instructs the selection object selection unit to select a type of the selection object;
A sorting device characterized by comprising an operation start instruction unit that causes the determination unit to determine the presence or absence and location of the sorting object, and causes the sorting unit to select the sorting object from the mixture based on the determination result.
제 2 항에 있어서,
상기 조작부가, 적어도 상기 데이터 취득 지시부, 학습 데이터 작성 지시부 및 학습 개시 지시부를 표시하는 학습 모드와, 적어도 상기 운전 개시 지시부를 표시하는 운전 모드를 포함하는 모드 전환 조작을 지시하는 모드 전환 지시부를 구비하는 것을 특징으로 하는 선별 장치.
According to claim 2,
The operation unit includes a learning mode that displays at least the data acquisition instruction section, the learning data creation instruction section, and the learning start instruction section, and a mode change instruction section that instructs a mode change operation including at least a driving mode that displays the driving start instruction section. A sorting device characterized in that.
복수 종류의 물체로 구성되는 혼합물 중에서 선별 대상물을 선별하는 선별 방법으로서,
데이터 취득 지시부로부터의 조작을 받아, 종류별로 분별된 상기 물체인 종별 물체 또는 상기 혼합물에 기초하는 데이터를 취득하는 데이터 취득 공정과,
학습 데이터 작성 지시부로부터의 조작을 받아, 상기 데이터 취득 공정에서 취득한 상기 종별 물체의 데이터로부터 학습 데이터를 작성하는 학습 데이터 작성 공정과,
학습 개시 지시부로부터의 조작을 받아, 상기 학습 데이터 작성 공정에서 작성한 학습 데이터를 사용하여 혼합물을 종류별로 분별하고, 종별 물체로 하는 방법을 학습하고, 그 학습에 의해 얻어진 지식 및 경험을 데이터화한 학습 모델을 작성하는 학습 공정과,
선별 대상 선택 지시부로부터의 조작을 받아, 상기 종별 물체 중에서 상기 선별 대상물의 종류를 선택하는 선별 대상 선택 공정과,
운전 개시 지시부로부터의 조작을 받아, 상기 학습 공정에서 작성한 학습 모델에 기초하여, 상기 데이터 취득 공정에서 취득한 혼합물의 데이터로부터 상기 선별 대상 선택 공정에서 선택된 종류의 선별 대상물의 유무 및 위치를 판단하고, 그 판단 결과에 기초하여 상기 혼합물 중에서 상기 선별 대상물을 선별하는 운전 공정을 포함하는 선별 방법.
A screening method for selecting a screening object from a mixture consisting of a plurality of types of objects, comprising:
A data acquisition step of receiving an operation from a data acquisition instruction unit and acquiring data based on the type object or the mixture, which is the object classified by type;
A learning data creation step of receiving an operation from a learning data creation instruction unit and creating learning data from the data of the type object acquired in the data acquisition step;
A learning model that receives an operation from the learning start instruction unit, uses the learning data created in the learning data creation process above, learns how to classify mixtures into types and make objects by type, and converts the knowledge and experience obtained through the learning into data. A learning process to create,
A sorting object selection step of receiving an operation from a sorting object selection instruction unit and selecting a type of the sorting object from the type objects;
Upon receiving an operation from the operation start instruction unit, based on the learning model created in the learning process, the presence and position of a sorting object of the type selected in the sorting object selection process is determined from the mixture data acquired in the data acquisition process, A selection method comprising an operation process of selecting the selection object from the mixture based on the judgment result.
복수 종류의 물체로 구성되는 혼합물 중에서 선별 대상물을 선별하기 위한 기록 매체에 격납된 선별 프로그램으로서,
데이터 취득 지시부로부터의 조작을 받아, 종류별로 분별된 상기 물체인 종별 물체 또는 상기 혼합물에 기초하는 데이터를 취득하는 기능과,
학습 데이터 작성 지시부로부터의 조작을 받아, 상기 취득한 상기 종별 물체의 촬상 데이터로부터 학습 데이터를 작성하는 기능과,
학습 개시 지시부로부터의 조작을 받아, 상기 작성한 학습 데이터를 사용하여 혼합물을 종류별로 분별하고, 종별 물체로 하는 방법을 학습하고, 그 학습에 의해 얻어진 지식 및 경험을 데이터화한 학습 모델을 작성하는 기능과,
선별 대상 선택 지시부로부터의 조작을 받아, 상기 종별 물체 중에서 상기 선별 대상물의 종류를 선택하는 기능과,
운전 개시 지시부로부터의 조작을 받아, 상기 작성한 학습 모델에 기초하여, 상기 취득한 혼합물의 데이터로부터 상기 선택된 종류의 선별 대상물의 유무 및 위치를 판단하고, 그 판단 결과에 기초하여 상기 혼합물 중에서 상기 선별 대상물을 선별하는 기능을 컴퓨터에 실현시키는 기록 매체에 격납된 선별 프로그램.
A selection program stored in a recording medium for selecting a selection object from a mixture consisting of a plurality of types of objects, comprising:
A function to receive an operation from a data acquisition instruction unit and acquire data based on the type object or the mixture, which is the object classified by type;
A function to receive an operation from a learning data creation instruction unit and create learning data from the acquired imaging data of the object of the type;
A function to receive an operation from the learning start instruction unit, use the learning data created above to learn how to classify mixtures into types and make objects by type, and create a learning model that converts the knowledge and experience obtained through the learning into data; ,
A function to receive an operation from a selection object selection instruction unit and select a type of the object to be sorted from among the objects of each type;
Upon receiving an operation from the operation start instruction unit, based on the learning model created above, the presence and position of the selected type of selection object is judged from the data of the obtained mixture, and based on the judgment result, the selection object is selected from the mixture. A selection program stored in a recording medium that enables the computer to perform the selection function.
삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete
KR1020207018659A 2018-04-26 2019-04-26 Sorting devices, screening methods and screening programs, and computer-readable recording media or storage devices Active KR102687766B1 (en)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP2018085343A JP7072435B2 (en) 2018-04-26 2018-04-26 Sorting equipment, sorting methods and programs, and computer-readable recording media
JPJP-P-2018-085343 2018-04-26
JP2018097254A JP6987698B2 (en) 2018-05-21 2018-05-21 Sorting equipment, sorting methods and programs, and computer-readable recording media
JPJP-P-2018-097254 2018-05-21
PCT/JP2019/017853 WO2019208754A1 (en) 2018-04-26 2019-04-26 Sorting device, sorting method and sorting program, and computer-readable recording medium or storage apparatus

Publications (2)

Publication Number Publication Date
KR20210002444A KR20210002444A (en) 2021-01-08
KR102687766B1 true KR102687766B1 (en) 2024-07-23

Family

ID=68294682

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020207018659A Active KR102687766B1 (en) 2018-04-26 2019-04-26 Sorting devices, screening methods and screening programs, and computer-readable recording media or storage devices

Country Status (3)

Country Link
KR (1) KR102687766B1 (en)
CN (1) CN111819598B (en)
WO (1) WO2019208754A1 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7107331B2 (en) * 2020-04-10 2022-07-27 株式会社椿本チエイン Data collection method, data collection system, data collection device, data provision method, and computer program
JP7264936B2 (en) * 2021-04-21 2023-04-25 Jx金属株式会社 Electric/electronic component waste processing method and electric/electronic component waste processing apparatus
CN113560198B (en) * 2021-05-20 2023-03-03 光大环境科技(中国)有限公司 Category sorting method and category sorting system
CN114669493A (en) * 2022-02-10 2022-06-28 南京搏力科技有限公司 Automatic waste paper quality detection device and detection method based on artificial intelligence
JP7379574B2 (en) * 2022-03-30 2023-11-14 本田技研工業株式会社 Pseudo defective product data generation device
KR102650810B1 (en) * 2023-09-27 2024-03-25 주식회사 에이트테크 Robotic systems for separating targets from non-targets

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012115785A (en) 2010-12-02 2012-06-21 Sharp Corp Sorting system of waste
JP2017109197A (en) 2016-07-06 2017-06-22 ウエノテックス株式会社 Waste screening system and screening method therefor

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2978374B2 (en) * 1992-08-21 1999-11-15 松下電器産業株式会社 Image processing device, image processing method, and control device for air conditioner
JP2009282631A (en) * 2008-05-20 2009-12-03 Canon Inc Parameter learning method and apparatus for pattern identification
KR101717729B1 (en) * 2012-12-17 2017-03-17 한국전자통신연구원 Apparatus and method for recognizing human from video
KR101782363B1 (en) * 2016-05-23 2017-09-27 (주)에이앤아이 Vision inspection method based on learning data
JP2018017639A (en) 2016-07-29 2018-02-01 株式会社 深見製作所 Surface defect inspection method and surface defect inspection apparatus
CN107958197A (en) * 2016-10-14 2018-04-24 松下电器(美国)知识产权公司 Learning data makes support method
KR102530045B1 (en) * 2016-12-23 2023-05-09 삼성전자주식회사 Image display device and operating method for the same
WO2020090941A1 (en) * 2018-10-31 2020-05-07 Jx金属株式会社 Composition analyzer of electronic/electrical equipment parts waste, treatment device of electronic/electrical equipment parts waste, and treatment method of electronic/electrical equipment parts waste
JP7419093B2 (en) * 2020-02-13 2024-01-22 大王製紙株式会社 Waste plastic sorting equipment, sorting method, and sorting program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012115785A (en) 2010-12-02 2012-06-21 Sharp Corp Sorting system of waste
JP2017109197A (en) 2016-07-06 2017-06-22 ウエノテックス株式会社 Waste screening system and screening method therefor

Also Published As

Publication number Publication date
CN111819598B (en) 2023-06-13
KR20210002444A (en) 2021-01-08
WO2019208754A1 (en) 2019-10-31
CN111819598A (en) 2020-10-23

Similar Documents

Publication Publication Date Title
KR102687766B1 (en) Sorting devices, screening methods and screening programs, and computer-readable recording media or storage devices
US11654549B2 (en) Display control device, display control method, computer program product, and communication system
JP2022036094A (en) Selection device
US9094588B2 (en) Human machine-interface and method for manipulating data in a machine vision system
US9766604B2 (en) Control device, control method, computer program product, and robot control system
US7394926B2 (en) Magnified machine vision user interface
JP2019212073A (en) Image discriminating apparatus and method thereof
JP6780769B2 (en) Learning equipment, learning methods and learning programs
CN105528607A (en) Region extraction method and model training method and device
JP2020187656A (en) Image inspection device
US11042977B2 (en) Image inspection apparatus and setting method for image inspection apparatus
NL8104149A (en) AUDIOVISUAL LEARNING SYSTEM.
CN101375300A (en) Counting device for small batches
JP6395895B1 (en) Video inspection recognition device
JP7072435B2 (en) Sorting equipment, sorting methods and programs, and computer-readable recording media
JP2008092471A (en) Interactive moving image monitoring method, interactive moving image monitoring apparatus, and interactive moving image monitoring program
JP2022164146A (en) Image inspection device, image processing method, image processing program, computer-readable recording medium, and recorded equipment
JPWO2020213145A5 (en)
KR101976493B1 (en) Method and Apparatus for Setting Object Area for Use in Video Monitoring Device
WO2020012939A1 (en) Image processing device, image processing method and image processing program
US20240288991A1 (en) Machine learning based recommendations for user interactions with machine vision systems
JP4544117B2 (en) Control information generator
Yani et al. by HSV Colour
JP7556463B2 (en) Image processing device, image processing method, and program
JP3998617B2 (en) Game machine manufacturing process management system

Legal Events

Date Code Title Description
PA0105 International application

Patent event date: 20200626

Patent event code: PA01051R01D

Comment text: International Patent Application

PG1501 Laying open of application
PA0201 Request for examination

Patent event code: PA02012R01D

Patent event date: 20220214

Comment text: Request for Examination of Application

E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20231029

Patent event code: PE09021S01D

E701 Decision to grant or registration of patent right
PE0701 Decision of registration

Patent event code: PE07011S01D

Comment text: Decision to Grant Registration

Patent event date: 20240612

GRNT Written decision to grant
PR0701 Registration of establishment

Comment text: Registration of Establishment

Patent event date: 20240719

Patent event code: PR07011E01D

PR1002 Payment of registration fee

Payment date: 20240719

End annual number: 3

Start annual number: 1

PG1601 Publication of registration