[go: up one dir, main page]

KR102167655B1 - Neural network training method for utilizing differences between a plurality of images, and method thereof - Google Patents

Neural network training method for utilizing differences between a plurality of images, and method thereof Download PDF

Info

Publication number
KR102167655B1
KR102167655B1 KR1020190144442A KR20190144442A KR102167655B1 KR 102167655 B1 KR102167655 B1 KR 102167655B1 KR 1020190144442 A KR1020190144442 A KR 1020190144442A KR 20190144442 A KR20190144442 A KR 20190144442A KR 102167655 B1 KR102167655 B1 KR 102167655B1
Authority
KR
South Korea
Prior art keywords
image
neural network
reference image
subject
difference
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
KR1020190144442A
Other languages
Korean (ko)
Other versions
KR20200116842A (en
Inventor
유동근
이현재
Original Assignee
주식회사 루닛
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 루닛 filed Critical 주식회사 루닛
Priority to KR1020190144442A priority Critical patent/KR102167655B1/en
Publication of KR20200116842A publication Critical patent/KR20200116842A/en
Application granted granted Critical
Publication of KR102167655B1 publication Critical patent/KR102167655B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • G06N3/0454
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

본 발명은 이미지 간 차이에 관한 데이터를 이용하여 이미지의 특징을 추출하는 신경망을 학습시키는 방법 및 그 장치에 대한 기술이 제공된다. 본 발명의 일 실시예에 따른 피사체에 대해 제1 설정으로 촬영된 기준 이미지 및 상기 피사체에 대해 제2 설정으로 촬영된 제1 비교 이미지를 얻는 단계, 상기 기준 이미지를 이용하여 학습된 제1 신경망으로부터, 상기 기준 이미지의 특징 데이터를 얻는 단계, 상기 기준 이미지와 상기 제1 비교 이미지 간 차이에 관한 데이터로 형성된 제1 추출 이미지를 이용하여 학습된 제2 신경망으로부터, 상기 제1 추출 이미지의 특징 데이터를 얻는 단계 및 상기 기준 이미지의 특징 데이터 및 상기 제1 추출 이미지의 특징 데이터를 이용하여 제3 신경망을 학습시키는 단계를 포함한다.The present invention provides a method and apparatus for training a neural network for extracting features of an image by using data on differences between images. Obtaining a reference image photographed with a first setting for a subject and a first comparison image photographed with a second setting for the subject according to an embodiment of the present invention, from a first neural network learned using the reference image , Obtaining feature data of the reference image, Feature data of the first extracted image from a second neural network learned using a first extracted image formed of data about a difference between the reference image and the first comparison image And training a third neural network using the feature data of the reference image and the feature data of the first extracted image.

Description

복수의 이미지 간 차이점을 활용한 신경망 학습 방법{NEURAL NETWORK TRAINING METHOD FOR UTILIZING DIFFERENCES BETWEEN A PLURALITY OF IMAGES, AND METHOD THEREOF}A neural network training method using differences between multiple images {NEURAL NETWORK TRAINING METHOD FOR UTILIZING DIFFERENCES BETWEEN A PLURALITY OF IMAGES, AND METHOD THEREOF}

본 발명은 복수의 이미지 간 차이에 관한 데이터를 이용하여 이미지의 특징을 추출하는 신경망을 학습시키는 방법에 관한 것이다. 보다 자세하게는, 이미지의 특징을 추출하는 신경망을 학습하는 방법에 있어서 복수의 이미지 간 차이에 관한 정보를 포함하는 데이터 및 복수의 이미지를 이용하여 신경망을 학습하는 방법에 관한 것이다.The present invention relates to a method of training a neural network that extracts features of an image using data on differences between a plurality of images. In more detail, in a method of learning a neural network for extracting features of an image, it relates to a method of learning a neural network using data including information on differences between a plurality of images and a plurality of images.

3D 데이터의 특징을 추출하기 위해 통상적으로 3D CNN(Convolutional Neural Networks)이용되나, 상기 3D CNN의 학습을 위해 많은 양의 메모리와 시간이 요구되어 상기 3D CNN의 효용성은 매우 낮다.3D Convolutional Neural Networks (CNNs) are typically used to extract features of 3D data, but a large amount of memory and time are required for learning the 3D CNN, so the utility of the 3D CNN is very low.

3D 데이터의 특징을 추출하는데 소모되는 컴퓨팅 자원을 줄이기 위해 2D CNN 이용하여 상기 3D 데이터의 특징을 추출하는 방법을 고려해볼 수 있다. 하지만, 상기 2D CNN을 이용해 3D 데이터의 특징을 추출하는 경우, 상기 3D 데이터에 관한 모든 정보(예를 들어, 영상 데이터의 시간 또는 3D 객체의 깊이(depth) 등)가 활용될 수 없다.In order to reduce computing resources consumed in extracting the features of 3D data, a method of extracting features of the 3D data may be considered using a 2D CNN. However, when a feature of 3D data is extracted using the 2D CNN, all information about the 3D data (eg, time of image data or depth of 3D object, etc.) cannot be utilized.

등록특허 10-1396308호 (2014.05.12)Registered Patent No. 10-1396308 (2014.05.12)

본 발명이 해결하고자 하는 기술적 과제는, 적은 비용으로 3D 객체의 특징을 정확히 추출하는 신경망을 학습시키는 방법 및 그 장치 또는 시스템을 제공하는 것이다.The technical problem to be solved by the present invention is to provide a method and apparatus or system for learning a neural network that accurately extracts features of 3D objects at low cost.

본 발명이 해결하고자 하는 다른 기술적 과제는, 복수의 이미지 간 차이에 관한 데이터를 이용하여 이미지의 특징을 추출하는 신경망을 학습시키는 방법 및 그 장치 또는 시스템을 제공하는 것이다.Another technical problem to be solved by the present invention is to provide a method and apparatus or system for learning a neural network for extracting features of an image by using data on differences between a plurality of images.

본 발명의 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명의 기술분야에서의 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The technical problems of the present invention are not limited to the technical problems mentioned above, and other technical problems that are not mentioned will be clearly understood by those skilled in the art from the following description.

상기 기술적 과제를 해결하기 위한, 본 발명의 일 실시예에 따른 신경망 학습 방법은, 피사체에 대해 제1 설정으로 촬영된 기준 이미지 및 상기 피사체에 대해 제2 설정으로 촬영된 제1 비교 이미지를 얻는 단계, 상기 기준 이미지를 이용하여 학습된 제1 신경망으로부터, 상기 기준 이미지의 특징 데이터를 얻는 단계, 상기 기준 이미지와 상기 제1 비교 이미지 간 차이에 관한 데이터로 형성된 제1 추출 이미지를 이용하여 학습된 제2 신경망으로부터, 상기 제1 추출 이미지의 특징 데이터를 얻는 단계 및 상기 기준 이미지의 특징 데이터 및 상기 제1 추출 이미지의 특징 데이터를 이용하여 제3 신경망을 학습시키는 단계를 포함할 수 있다.In order to solve the above technical problem, a method for learning a neural network according to an embodiment of the present invention includes: obtaining a reference image taken with a first setting for a subject and a first comparison image taken with a second setting for the subject , Obtaining feature data of the reference image from a first neural network learned using the reference image, the first extracted image formed of data on the difference between the reference image and the first comparison image 2 It may include obtaining feature data of the first extracted image from a neural network, and training a third neural network using feature data of the reference image and feature data of the first extracted image.

상기 기술적 과제를 해결하기 위한, 본 발명의 다른 실시예에 따른 신경망 학습 컴퓨터 프로그램은 피사체에 대해 제1 설정으로 촬영된 기준 이미지 및 상기 피사체에 대해 제2 설정으로 촬영된 제1 비교 이미지를 얻는 단계, 상기 기준 이미지를 이용하여 학습된 제1 신경망으로부터, 상기 기준 이미지의 특징 데이터를 얻는 단계, 상기 기준 이미지와 상기 제1 비교 이미지 간 차이에 관한 데이터로 형성된 제1 추출 이미지를 이용하여 학습된 제2 신경망으로부터, 상기 제1 추출 이미지의 특징 데이터를 얻는 단계 및 상기 기준 이미지의 특징 데이터 및 상기 제1 추출 이미지의 특징 데이터를 이용하여 제3 신경망을 학습시키는 단계를 실행시키기 위하여, 컴퓨터로 읽을 수 있는 기록 매체에 저장될 수 있다.In order to solve the above technical problem, a neural network learning computer program according to another embodiment of the present invention includes: obtaining a reference image photographed with a first setting for a subject and a first comparison image photographed with a second setting for the subject , Obtaining feature data of the reference image from a first neural network learned using the reference image, the first extracted image formed of data on the difference between the reference image and the first comparison image 2 In order to execute the step of obtaining feature data of the first extracted image from a neural network and training a third neural network using the feature data of the reference image and the feature data of the first extracted image, it can be read by a computer. It can be stored in a storage medium.

상기 기술적 과제를 해결하기 위한, 본 발명의 또 다른 실시예에 따른 기계 학습 장치는 하나 이상의 인스트럭션들(instructions)을 저장하는 메모리 및 상기 저장된 하나 이상의 인스트럭션들을 실행함으로써 피사체에 대해 제1 설정으로 촬영된 기준 이미지 및 상기 피사체에 대해 제2 설정으로 촬영된 제1 비교 이미지를 얻고, 상기 기준 이미지를 이용하여 학습된 제1 신경망으로부터, 상기 기준 이미지의 특징 데이터를 얻고, 상기 기준 이미지와 상기 제1 비교 이미지 간 차이에 관한 데이터로 형성된 제1 추출 이미지를 이용하여 학습된 제2 신경망으로부터, 상기 제1 추출 이미지의 특징 데이터를 얻고, 상기 기준 이미지의 특징 데이터 및 상기 제1 추출 이미지의 특징 데이터를 이용하여 제3 신경망을 학습시키는 프로세서를 포함할 수 있다.In order to solve the above technical problem, a machine learning apparatus according to another embodiment of the present invention includes a memory for storing one or more instructions and a first setting for a subject by executing the stored one or more instructions. Obtaining a reference image and a first comparison image taken with a second setting of the subject, obtaining feature data of the reference image from a first neural network learned using the reference image, and comparing the reference image with the first Obtaining feature data of the first extracted image from a second neural network learned using a first extracted image formed of data about differences between images, and using feature data of the reference image and feature data of the first extracted image Thus, a processor for training the third neural network may be included.

도 1은 본 발명의 일 실시예에 따른 하나의 기준 이미지와 하나의 추출 이미지를 이용한 신경망 학습 방법에 대한 순서도이다.
도 2는 본 발명의 다른 실시예에 따른 하나의 기준 이미지와 복수의 추출 이미지를 이용한 신경망 학습 방법에 대한 순서도이다.
도 3은 본 발명의 또 다른 실시예에 따른 피사체의 이미지를 이용한 신경망 학습 방법에서 다양한 설정으로 촬영된 피사체의 이미지를 얻는 과정을 상세히 설명하기 위한 개념도이다.
도 4는 본 발명의 또 다른 실시예에 따른 피사체의 이미지에 대한 깊이 정보와 상기 피사체의 이미지를 이용한 신경망 학습 방법을 설명하기 위한 개념도이다.
도 5는 본 발명의 또 다른 실시예에 따른 기준 이미지와 비교 이미지를 이용한 신경망 학습 방법에서 기준 이미지와 비교 이미지를 지정하는 방법을 설명하기 위한 개념도이다.
도 6은 본 발명의 또 다른 실시예에 따른 기준 이미지와 추출 이미지를 이용한 신경망 학습 방법에서 기준 이미지와 비교 이미지를 이용하여 추출 이미지를 얻는 방법을 설명하기 위한 개념도이다.
도 7은 본 발명의 또 다른 실시예에 따른 기준 이미지와 하나의 추출 이미지를 이용한 신경망 학습 방법을 설명하기 위한 도면이다.
도 8은 본 발명의 또 다른 실시예에 따른 하나의 기준 이미지의 특징 데이터와 하나의 추출 이미지의 특징 데이터를 이용하여 피사체의 특징에 관한 데이터를 출력하는 신경망을 포함하는 신경망 학습 방법을 설명하기 위한 도면이다.
도 9는 본 발명의 또 다른 실시예에 따른 기준 이미지의 특징 데이터와 추출 이미지의 특징 데이터를 채널 축을 기준으로 연결한 데이터를 이용하여 피사체 특징을 추출하는 신경망 학습 방법을 설명하기 위한 도면이다.
도 10은 본 발명의 또 다른 실시예에 따른 기준 이미지의 특징 데이터와 추출 이미지의 특징 데이터를 융합(fusion)한 데이터를 이용하여 피사체의 특징을 추출하는 신경망 학습 방법을 설명하기 위한 도면이다.
도 11은 본 발명의 또 다른 실시예에 따른 하나의 기준 이미지와 복수의 추출 이미지를 이용한 피사체 특징 추출 신경망 학습 방법을 설명하기 위한 도면이다.
도 12는 본 발명의 또 다른 실시예에 따른 기준 이미지, 비교 이미지 및 추출 이미지를 이용한 피사체 특징 추출 신경망 학습 방법을 설명하기 위한 도면이다.
도 13은 본 발명의 또 다른 실시예에 따른 기준 이미지의 특징 데이터와 복수의 비교 이미지의 특징 데이터간 차이를 기초로 형성된 추출 데이터를 이용한 피사체 특징 추출 신경망 학습 방법을 설명하기 위한 도면이다.
도 14는 본 발명의 또 다른 실시예에 따른 신경망 학습 장치의 블록도이다.
도 15는 본 발명의 또 다른 실시예에 따른 신경망 학습 장치의 하드웨어 구성도이다.
도 16은 본 발명의 또 다른 실시예에 따른 신경망 학습 시스템의 구성도이다.
1 is a flowchart illustrating a neural network training method using one reference image and one extracted image according to an embodiment of the present invention.
2 is a flowchart of a neural network training method using one reference image and a plurality of extracted images according to another embodiment of the present invention.
3 is a conceptual diagram for explaining in detail a process of obtaining an image of a subject photographed with various settings in a neural network learning method using an image of a subject according to another embodiment of the present invention.
4 is a conceptual diagram illustrating a method of learning a neural network using depth information on an image of a subject and an image of the subject according to another embodiment of the present invention.
FIG. 5 is a conceptual diagram illustrating a method of designating a reference image and a comparison image in a neural network learning method using a reference image and a comparison image according to another embodiment of the present invention.
6 is a conceptual diagram illustrating a method of obtaining an extracted image using a reference image and a comparison image in a neural network training method using a reference image and an extracted image according to another embodiment of the present invention.
7 is a diagram for explaining a neural network training method using a reference image and one extracted image according to another embodiment of the present invention.
FIG. 8 is a diagram illustrating a neural network learning method including a neural network for outputting data on a feature of a subject by using feature data of one reference image and feature data of one extracted image according to another embodiment of the present invention. It is a drawing.
9 is a view for explaining a neural network training method for extracting a subject feature using data obtained by connecting feature data of a reference image and feature data of an extracted image according to another embodiment of the present invention.
10 is a diagram for explaining a neural network learning method for extracting a feature of a subject using data obtained by fusion of feature data of a reference image and feature data of an extracted image according to another embodiment of the present invention.
11 is a diagram illustrating a method of learning a neural network for extracting object features using one reference image and a plurality of extracted images according to another embodiment of the present invention.
12 is a diagram illustrating a method of learning a neural network for extracting object features using a reference image, a comparison image, and an extracted image according to another embodiment of the present invention.
13 is a diagram for explaining a method of learning a subject feature extraction neural network using extraction data formed based on a difference between feature data of a reference image and feature data of a plurality of comparison images according to another embodiment of the present invention.
14 is a block diagram of an apparatus for learning a neural network according to another embodiment of the present invention.
15 is a hardware configuration diagram of a neural network learning apparatus according to another embodiment of the present invention.
16 is a block diagram of a neural network learning system according to another embodiment of the present invention.

이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예들을 상세히 설명한다. 본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명의 기술적 사상은 이하의 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 이하의 실시예들은 본 발명의 기술적 사상을 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명의 기술적 사상은 청구항의 범주에 의해 정의될 뿐이다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings. Advantages and features of the present invention, and a method of achieving them will become apparent with reference to the embodiments described below in detail together with the accompanying drawings. However, the technical idea of the present invention is not limited to the following embodiments, but may be implemented in various different forms, and only the following embodiments complete the technical idea of the present invention, and in the technical field to which the present invention pertains. It is provided to completely inform the scope of the present invention to those of ordinary skill in the art, and the technical idea of the present invention is only defined by the scope of the claims.

각 도면의 구성요소들에 참조부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한, 본 발명의 실시예들을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 개시의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.In adding reference numerals to elements of each drawing, it should be noted that the same elements are assigned the same numerals as possible even if they are indicated on different drawings. In addition, in describing embodiments of the present invention, when it is determined that a detailed description of a related known configuration or function may obscure the subject matter of the present disclosure, a detailed description thereof will be omitted.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있다. 또 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다. 본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 개시를 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다.Unless otherwise defined, all terms (including technical and scientific terms) used in the present specification may be used as meanings that can be commonly understood by those of ordinary skill in the art to which this disclosure belongs. In addition, terms defined in a commonly used dictionary are not interpreted ideally or excessively unless explicitly defined specifically. The terms used in the present specification are for describing exemplary embodiments and are not intended to limit the present disclosure. In this specification, the singular form also includes the plural form unless specifically stated in the phrase.

또한, 본 개시의 구성 요소를 설명하는 데 있어서, 제1, 제2 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등이 한정되지 않는다.Also, in describing the constituent elements of the present disclosure, terms such as first and second may be used. These terms are only used to distinguish the component from other components, and the nature, order, or order of the component is not limited by the term.

이하, 도 1을 참조하여 본 발명의 일 실시예에 따른 신경망 학습 방법에 대하여 설명한다. 본 실시예에 따른 신경망 학습 방법은 피사체의 특징을 추출하기 위해, 상기 피사체를 촬영한 복수의 이미지를 이용한다. 즉, 상기 피사체를 촬영한 하나의 기준 이미지와, 하나의 추출 이미지를 이용하여 피사체의 특징을 추출한다. 이 때, 상기 추출 이미지는 상기 기준 이미지의 촬영 설정과 상이한 촬영 설정에 따라 상기 피사체를 촬영한 비교 이미지와, 상기 기준 이미지 간의 차이를 기초로 형성된 이미지이다.Hereinafter, a neural network learning method according to an embodiment of the present invention will be described with reference to FIG. 1. The neural network learning method according to the present embodiment uses a plurality of images of the subject in order to extract features of the subject. That is, the feature of the subject is extracted using one reference image photographing the subject and one extracted image. In this case, the extracted image is an image formed based on a difference between the reference image and a comparison image photographing the subject according to a photographing setting different from that of the reference image.

본 실시예에 따른 신경망 학습 방법은 컴퓨팅 장치에 의하여 수행될 수 있다. 상기 컴퓨팅 장치는 동일한 피사체를 서로 다른 설정으로 촬영한 복수의 이미지 데이터셋을 학습 데이터로서 제공받는 장치로서, 상기 신경망 학습 방법의 수행 결과로 학습된 신경망을 정의하는 데이터를 생성할 수 있을 것이다. 이하, 본 실시예에 따른 방법에 속한 각각의 동작을 설명함에 있어서, 그 주체에 대한 기재가 생략된 경우에는 해당 동작의 주체는 상기 컴퓨팅 장치인 것으로 이해될 수 있을 것이다.The neural network learning method according to the present embodiment may be performed by a computing device. The computing device is a device that receives a plurality of image datasets photographed with different settings of the same subject as training data, and may generate data defining a learned neural network as a result of performing the neural network learning method. Hereinafter, in describing each operation belonging to the method according to the present embodiment, when the description of the subject is omitted, it may be understood that the subject of the operation is the computing device.

단계 S101에서, 촬영 대상인 피사체에 관한 기준 이미지 및 제1 비교 이미지가 획득된다. 상기 기준 이미지 및 상기 제1 비교 이미지 모두 동일한 피사체를 촬영한 결과로 얻어진 데이터이나, 상기 기준 이미지와 상기 제1 비교 이미지는 촬영에 사용된 '설정'이 서로 다른 점에서 구분된다. 이하, 상기 '설정'과 관련하여 설명한다.In step S101, a reference image and a first comparison image of a subject to be photographed are obtained. Both the reference image and the first comparison image are data obtained as a result of photographing the same subject, but the reference image and the first comparison image are distinguished in that'settings' used for photographing are different from each other. Hereinafter, it will be described in connection with the'setting'.

촬영과 관련된 상기 설정이란, 촬영 장치의 동작 방식을 정의하는 설정 또는, 촬영 위치 또는 촬영 각도 등 상기 피사체에 대한 상대적 위치 지정 등 다양한 촬영 환경을 의미할 수 있다. 예를 들어, 촬영 장치의 동작 방식은 방사선 촬영 방식, 파노라마 촬영 방식 및 단층 촬영 방식 등 일 수 있고, 촬영 환경은 카메라의 각도, 피사체와 카메라의 거리, 노출 값, 조명 비율, 초점 거리, 화각, 방사선 촬영에서의 방사선량 등 동일한 피사체에 대한 촬영에서 서로 다른 이미지를 획득하기 위한 다양한 설정을 포함할 수 있다.The setting related to photographing may mean various photographing environments, such as a setting defining an operation method of the photographing device or designating a relative position with respect to the subject such as a photographing position or a photographing angle. For example, the operation method of the photographing apparatus may be a radiographic method, a panorama photographing method, a tomography method, etc., and the photographing environment may be an angle of a camera, a distance between the subject and the camera, an exposure value, an illumination ratio, a focal length, an angle of view, Various settings for acquiring different images in imaging for the same subject, such as radiation dose in radiography may be included.

상기 기준 이미지 및 상기 제1 비교 이미지는 3D 이미지를 생성하기 위해 구성된 2D 이미지의 집합에 속하는 이미지일 수 있다. 즉, 상기 기준 이미지 및 상기 제1 비교 이미지는 3D 이미지 자체가 아닌 상기 3D 이미지를 생성하기 위한 2D 이미지일 수 있는 것이다. 상기 3D 이미지는 의료 영상 분야에서 사용되는 CT(Computerized tomography) 이미지, DBT(Digital breast tomosynthesis) 이미지 및 멀티 레이어 치아 파노라마 이미지일 수 있다. 상기 기준 이미지 및 상기 제1 비교 이미지가 피사체의 3D 이미지를 생성하기 위해 구성된 2D 이미지의 집합에 속하는 것일 때, 상기 기준 이미지와 상기 제1 비교 이미지는 서로 다른 각도로 피사체를 촬영한 것이거나, 동일한 촬영 방향을 기준으로 피사체의 서로 다른 깊이에 초점이 맞춰진 것일 수 있다.The reference image and the first comparison image may be images belonging to a set of 2D images configured to generate a 3D image. That is, the reference image and the first comparison image may be a 2D image for generating the 3D image, not the 3D image itself. The 3D image may be a computerized tomography (CT) image, a digital breast tomosynthesis (DBT) image, and a multi-layer tooth panorama image used in the medical imaging field. When the reference image and the first comparison image belong to a set of 2D images configured to generate a 3D image of a subject, the reference image and the first comparison image are photographed at different angles or the same The focus may be at different depths of the subject based on the photographing direction.

단계 S103에서, 상기 획득된 기준 이미지가 제1 신경망에 입력된다.In step S103, the acquired reference image is input to the first neural network.

여기서 제1 신경망은 상기 제1 신경망에 입력된 이미지 데이터에서 추출된 특징 데이터(feature data)를 출력하는 신경망이다. 예를 들어, 상기 제1 신경망은 ResNet, VGGNet 또는 AlexNet 등 다양한 2D CNN(Convolutional Neural Network) 구조의 신경망 중 하나일 수 있다.Here, the first neural network is a neural network that outputs feature data extracted from image data input to the first neural network. For example, the first neural network may be one of a variety of 2D Convolutional Neural Network (CNN) neural networks such as ResNet, VGGNet, or AlexNet.

단계 S105에서, 상기 기준 이미지 및 상기 제1 비교 이미지를 이용하여 형성된 제1 추출 이미지가 제2 신경망에 입력될 수 있다.In step S105, a first extracted image formed by using the reference image and the first comparison image may be input to a second neural network.

제1 추출 이미지는 상기 기준 이미지와 상기 제1 비교 이미지 간 차이에 관한 정보를 기초로 형성된 데이터 기반의 이미지일 수 있다. 예를 들어, 상기 제1 추출 이미지는 상기 기준 이미지의 픽셀 값과 상기 제1 비교 이미지의 픽셀 값의 차이를 기초로 형성된 이미지일 수 있다. 즉, 상기 제1 추출 이미지의 제1 좌표에서의 픽셀 값은 상기 기준 이미지의 제1 좌표 픽셀 값에서 상기 제1 비교 이미지의 제1 좌표 픽셀 값을 뺀 값일 수 있다.The first extracted image may be a data-based image formed based on information about a difference between the reference image and the first comparison image. For example, the first extracted image may be an image formed based on a difference between a pixel value of the reference image and a pixel value of the first comparison image. That is, the pixel value at the first coordinate of the first extracted image may be a value obtained by subtracting the first coordinate pixel value of the first comparison image from the first coordinate pixel value of the reference image.

또한 본 발명의 다른 실시예에 따라 상기 기준 이미지의 깊이 정보 및 제1 비교 이미지의 깊이 정보가 제2 신경망에 더 입력될 수 있다. 상기 제2 신경망은 상기 제2 신경망에 입력된 이미지 데이터에서 추출된 특징 데이터를 출력하는 신경망이다.Also, according to another embodiment of the present invention, depth information of the reference image and depth information of the first comparison image may be further input to the second neural network. The second neural network is a neural network that outputs feature data extracted from image data input to the second neural network.

일 실시예에서, 상기 제1 신경망과 상기 제2 신경망은 동일한 세팅으로 구성된 것일 수 있다. 즉, 상기 제1 신경망과 상기 제2 신경망은 레이어 개수, 각 레이어의 노드 개수, 인접 레이어의 노드들 사이의 연결 설정 등 신경망 구성과 관련된 세팅이 완전히 동일한 것일 수 있다. 또한, 상기 제1 신경망과 상기 제2 신경망이 2D CNN인 경우, 상기 제1 신경망과 상기 제2 신경망에 사용되는 필터의 종류 및 개수와, 각각의 필터의 적용 순서 역시 동일할 수 있다.In an embodiment, the first neural network and the second neural network may be configured with the same settings. That is, the first neural network and the second neural network may have completely identical settings related to the neural network configuration, such as the number of layers, the number of nodes of each layer, and connection settings between nodes of adjacent layers. In addition, when the first neural network and the second neural network are 2D CNNs, the type and number of filters used in the first neural network and the second neural network, and the order of applying each filter may also be the same.

다른 실시예에서, 상기 제1 신경망에 입력되는 기준 이미지는 피사체의 특정 깊이에 상응하는 온전한 이미지인 반면, 상기 제2 신경망에 입력되는 제1 추출 이미지는 기준 이미지와 제1 비교 이미지 사이의 차이 값에 관한 정보만을 담고 있는 이미지인 점을 반영하여, 상기 제1 신경망과 상기 제2 신경망은 적어도 일부 세팅이 서로 상이할 수도 있을 것이다.In another embodiment, the reference image input to the first neural network is a complete image corresponding to a specific depth of the subject, whereas the first extracted image input to the second neural network is a difference value between the reference image and the first comparison image In consideration of the fact that the image is an image containing only information about the first neural network and the second neural network, at least some settings may be different from each other.

제1 추출 이미지는 기준 이미지 및 제1 비교 이미지 간 차이에 관한 정보만 포함한다. 따라서, 제2 신경망에 입력되는 정보가 제1 신경망 대비 상대적으로 빈약한 점을 보완하기 위해, 상기 제1 비교 이미지의 깊이와 기준 이미지의 깊이 간 차이에 관한 정보가 상기 제2 신경망에 더 입력될 수 있다. 이를 통해 제1 추출 이미지만 제1 신경망의 입력 데이터로 이용되는 경우보다 3차원 공간 상에 위치하는 피사체의 특징이 더 정확하게 파악될 수 있다.The first extracted image includes only information about a difference between the reference image and the first comparison image. Therefore, in order to compensate for the fact that the information input to the second neural network is relatively weak compared to the first neural network, information on the difference between the depth of the first comparison image and the depth of the reference image is further inputted to the second neural network. I can. Through this, characteristics of a subject located in a three-dimensional space may be more accurately identified than when only the first extracted image is used as input data of the first neural network.

깊이 정보는 3D 형태인 피사체가 2D 이미지로 촬영되는 경우 너비와 높이 외에 소멸되는 정보를 의미할 수 있다. 예를 들어, 상기 깊이 정보는 촬영 지점에서 피사체의 각 영역까지의 거리에 대한 정보를 의미할 수 있다.Depth information may mean information that disappears in addition to width and height when a 3D object is captured as a 2D image. For example, the depth information may mean information on a distance from a photographing point to each area of a subject.

또한, 촬영 방향에 따른 깊이를 달리하는 복수의 슬라이스 이미지들이 신경망의 입력 이미지인 경우, 상기 깊이 정보는 상기 각각의 슬라이스 이미지의 일련 번호의 형태로 표현될 수도 있을 것이다. 예를 들어, 신체를 전방에서 촬영하되, 초점 거리를 달리하여 20장의 슬라이스 이미지들이 촬영되고, 최전방의 슬라이스 이미지로부터 후방의 슬라이스 이미지를 향하여 연속적인 일련번호가 부여된 경우, 상기 깊이 정보는 상기 일련 번호를 의미할 수도 있을 것이다.In addition, when a plurality of slice images having different depths according to the photographing direction are input images of a neural network, the depth information may be expressed in the form of a serial number of each slice image. For example, when a body is photographed from the front, but 20 slice images are photographed with different focal lengths, and a continuous serial number is assigned from the frontmost slice image toward the rear slice image, the depth information is It could also mean a number.

단계 S107에서, 상기 제1 신경망의 출력 데이터 및 상기 제2 신경망의 출력 데이터가 제3 신경망에 입력됨으로써, 상기 제3 신경망이 학습될 수 있다.In step S107, the third neural network may be trained by inputting the output data of the first neural network and the output data of the second neural network to the third neural network.

상기 제1 신경망의 출력 데이터는 기준 이미지의 특징 데이터이고, 상기 제2 신경망의 출력 데이터는 상기 제1 추출 이미지의 특징 데이터이다. 예를 들어 제1 신경망에서 출력되는 특징 데이터는 기준 이미지의 특징 맵(feature map)일 수 있고, 제2 신경망의 출력되는 특징 데이터는 제1 추출 이미지의 특징 맵 일 수 있다.The output data of the first neural network is feature data of a reference image, and the output data of the second neural network is feature data of the first extracted image. For example, the feature data output from the first neural network may be a feature map of the reference image, and the feature data output from the second neural network may be a feature map of the first extracted image.

상기 제3 신경망은 상기 기준 이미지의 특징 데이터와 상기 제1 추출 이미지의 특징 데이터를 융합(fusion)하는 융합 레이어를 포함할 수 있다. 상기 '융합'의 결과로 출력되는 데이터에는, 상기 기준 이미지의 특징 정보와 상기 제1 추출 이미지의 특징 정보가 모두 반영된다. 즉, 상기 기준 이미지의 특징 정보와 상기 제1 추출 이미지의 특징 정보가 모두 반영될 수 있는 다양한 방식으로 상기 '융합'이 이뤄질 수 있을 것이다.The third neural network may include a fusion layer for fusion of feature data of the reference image and feature data of the first extracted image. In the data output as a result of the'fusion', both feature information of the reference image and feature information of the first extracted image are reflected. That is, the'fusion' may be achieved in various ways in which both the feature information of the reference image and the feature information of the first extracted image can be reflected.

예를 들어, 상기 융합 레이어에서 출력 되는 데이터는 상기 기준 이미지의 특징 벡터에 상기 제1 추출 이미지의 특징 벡터가 그대로 연결(concatenation)된 것이거나, 상기 기준 이미지의 특징 벡터와 상기 제1 추출 이미지의 특징 벡터가 합산(summation)된 것이거나, 상기 기준 이미지의 특징 벡터와 상기 제1 추출 이미지의 특징 벡터가 곱해진 것일 수 있을 것이다.For example, the data output from the fusion layer is that the feature vector of the first extracted image is concatenated with the feature vector of the reference image, or the feature vector of the reference image and the first extracted image are A feature vector may be summed, or a feature vector of the reference image and a feature vector of the first extracted image may be multiplied.

또한, 상기 제3 신경망은 퓨전 네트워크(fusion network)로서, 해당 기술의 통상의 기술자가 변형할 수 있는 다양한 형태의 신경망으로 대체될 수 있다. 예를 들어 상기 제3 신경망은 텐서 퓨전 네트워크(tensor fusion network)일 수 있다. In addition, the third neural network is a fusion network, and may be replaced with various types of neural networks that can be modified by a person skilled in the art. For example, the third neural network may be a tensor fusion network.

또한 일 실시예에 따른 상기 제3 신경망은 완전 결합 레이어(fully connected layer)를 더 포함함으로써, 분류(classification), 클러스터링 등 다양한 태스크(task)를 수행할 수도 있을 것이다.In addition, the third neural network according to an embodiment may further include a fully connected layer to perform various tasks such as classification and clustering.

이하 도 2를 참조하여 본 발명의 다른 실시예에 따른 하나의 기준 이미지와 복수의 추출 이미지를 이용한 신경망 학습 방법에 대하여 설명한다. 도 1을 참조하여 설명한 실시예에서, 하나의 기준 이미지와 하나의 비교 이미지가 신경망의 학습에 이용되었다. 반면에 도 2를 참조하여 설명하는 실시예에서는, 피사체에 대한 더 많은 정보를 이용하여 상기 피사체에 대한 특징이 추출될 수 있도록, 하나의 기준 이미지와 두개의 비교 이미지가 신경망의 학습에 이용된다. 이 때, 상기 두개의 비교 이미지 각각은, 상기 피사체가 서로 다른 설정에 의하여 촬영된 것이다. 본 실시예에 따른 신경망 학습 방법이 서로 다른 설정에 의하여 촬영된 3개 이상의 비교 이미지를 이용하는 것으로 변형될 수도 있음은 물론이다.Hereinafter, a neural network training method using one reference image and a plurality of extracted images according to another embodiment of the present invention will be described with reference to FIG. 2. In the embodiment described with reference to FIG. 1, one reference image and one comparison image are used for training of a neural network. On the other hand, in the embodiment described with reference to FIG. 2, one reference image and two comparison images are used for learning of the neural network so that the feature of the subject can be extracted using more information about the subject. In this case, in each of the two comparison images, the subject was photographed with different settings. It goes without saying that the neural network learning method according to the present embodiment may be modified to use three or more comparison images captured by different settings.

중복 서술을 피하기 위해 단계 S101 내지 단계 S105에 대한 설명은 생략한다.In order to avoid redundant description, descriptions of steps S101 to S105 are omitted.

단계 S109에서, 제2 비교 이미지를 이용하여 제2 추출 이미지가 획득되고, 상기 제2 추출 이미지가 제4 신경망에 입력된다. 상기 제2 추출 이미지는 상기 제2 비교 이미지와 상기 기준 이미지 간의 픽셀 값의 차이에 대한 데이터로 형성된 이미지이다. 상기 제4 신경망은 상기 제2 추출 이미지의 특징 데이터를 출력한다. 상기 제1 추출 이미지와 관련하여 이미 설명한 바와 유사하게, 제2 비교 이미지의 깊이와 기준 이미지의 깊이 간 차이에 관한 정보가 상기 제2 추출 이미지와 함께 상기 제4 신경망에 입력될 수도 있다.In step S109, a second extracted image is obtained using the second comparison image, and the second extracted image is input to the fourth neural network. The second extracted image is an image formed of data on a difference in pixel values between the second comparison image and the reference image. The fourth neural network outputs feature data of the second extracted image. Similar to what has already been described in relation to the first extracted image, information about a difference between the depth of the second comparison image and the depth of the reference image may be input to the fourth neural network together with the second extracted image.

상기 제2 비교 이미지는 상기 제1 비교 이미지와 다른 설정에 의하여 상기 피사체가 촬영된 것이다. 예를 들어 제1 비교 이미지와 기준 이미지 간 깊이 차이는 제2 비교 이미지와 기준 이미지 간 깊이 차이와 동일할 수 있다. 예를 들어, 촬영 방향에 따른 깊이를 달리 하여 피사체에 대한 일련의 슬라이스 이미지가 촬영된 경우(IMAGE[0, 1, ... ,N]), 기준 이미지(IMAGE[i])와 제1 비교 이미지(IMAGE[i+s]) 사이의 스트라이드(stride; s)와, 상기 기준 이미지와 제2 비교 이미지(IMAGE[i-s]) 사이의 스트라이드는 동일할 수 있다. 즉, 상기 제1 비교 이미지(IMAGE[i+s])와 상기 제2 비교 이미지(IMAGE[i-s])는 기준 이미지(IMAGE[i])를 중심으로 깊이 측면에서 대칭을 이룬다.The second comparison image is a photograph of the subject in a setting different from that of the first comparison image. For example, the difference in depth between the first comparison image and the reference image may be the same as the difference in depth between the second comparison image and the reference image. For example, when a series of sliced images of a subject are taken with different depths according to the shooting direction (IMAGE[0, 1, ... ,N]), the first comparison with the reference image (IMAGE[i]) The stride s between the images IMAGE[i+s] and the stride s between the reference image and the second comparison image IMAGE[is] may be the same. That is, the first comparison image IMAGE[i+s] and the second comparison image IMAGE[i-s] are symmetrical in depth with respect to the reference image IMAGE[i].

일 실시예에서, 상기 제1 신경망과 상기 제2 신경망 및 상기 제4 신경망은 동일한 세팅으로 구성된 것일 수 있다. 즉, 상기 제1 신경망, 상기 제2 신경망 및 상기 제4 신경망은 레이어 개수, 각 레이어의 노드 개수, 인접 레이어의 노드들 사이의 연결 설정 등 신경망 구성과 관련된 세팅이 완전히 동일한 것일 수 있다. 또한, 상기 제1 신경망, 상기 제2 신경망 및 상기 제4 신경망이 2D CNN인 경우, 상기 제1 신경망, 상기 제2 신경망 및 상기 제4 신경망에 사용되는 필터의 종류 및 개수와, 각각의 필터의 적용 순서 역시 동일할 수 있다.In an embodiment, the first neural network, the second neural network, and the fourth neural network may be configured with the same settings. That is, the first neural network, the second neural network, and the fourth neural network may have completely identical settings related to the neural network configuration, such as the number of layers, the number of nodes of each layer, and the connection setting between nodes of adjacent layers. In addition, when the first neural network, the second neural network, and the fourth neural network are 2D CNN, the type and number of filters used in the first neural network, the second neural network, and the fourth neural network, and each filter The order of application may also be the same.

다른 실시예에서, 상기 제1 신경망에 입력되는 기준 이미지는 피사체의 특정 깊이에 상응하는 온전한 이미지인 반면, 상기 제2 신경망에 입력되는 제1 추출 이미지와 상기 제4 신경망에 입력되는 제2 추출 이미지는, 기준 이미지와의 차이 값에 관한 정보만을 담고 있는 이미지인 점을 반영하여, 상기 제1 신경망과 상기 제2 신경망은 적어도 일부 세팅이 서로 상이하고, 또한 상기 제1 신경망과 상기 제4 신경망 역시 적어도 일부 세팅이 서로 상이할 수도 있을 것이다. 다만, 이 경우에도 상기 제1 추출 이미지와 상기 제2 추출 이미지는 모두 기준 이미지와의 차이 값에 관한 정보만을 담고 있는 이미지이므로, 상기 제2 신경망 및 상기 제4 신경망은 동일한 세팅으로 구성될 수 있을 것이다.In another embodiment, the reference image input to the first neural network is a complete image corresponding to a specific depth of the subject, whereas the first extracted image input to the second neural network and the second extracted image input to the fourth neural network Is, reflecting that it is an image that contains only information about a difference value from a reference image, the first neural network and the second neural network have at least some settings different from each other, and the first neural network and the fourth neural network are also At least some settings may be different. However, even in this case, since both the first extracted image and the second extracted image are images containing only information about a difference value from the reference image, the second neural network and the fourth neural network may be configured with the same setting. will be.

한편, 다른 실시예에서 기준 이미지와 각각의 비교 이미지 사이의 차이 값에 관한 정보로 형성된 추출 이미지는 모두 동일한 신경망에 입력될 수도 있다. 예를 들면, 복수의 추출 이미지는 동일한 신경망에 입력되 수 있다. 일 실시예로, 상기 제1 추출 이미지와 상기 제2 추출 이미지는 모두 상기 제2 신경망에 입력될 수 있다.Meanwhile, in another embodiment, all extracted images formed from information about a difference value between the reference image and each comparison image may be input to the same neural network. For example, a plurality of extracted images may be input to the same neural network. In an embodiment, both the first extracted image and the second extracted image may be input to the second neural network.

제1 추출 이미지의 특징 데이터와 제2 추출 이미지의 특징 데이터가 동일한 신경망에 의해 획득되는 경우에도, 제1 추출 이미지의 특징 데이터와 제2 추출 이미지의 특징 데이터 및 기준 이미지의 특징 데이터는 모두 병렬적으로 제3 신경망에 입력될 수 있다. 이 경우, 상기 제3 신경망은 상기 제2 신경망으로부터 입력된 상기 제1 추출 이미지의 특징 데이터와, 역시 상기 제2 신경망으로부터 입력된 상기 제2 추출 이미지의 특징 데이터와, 상기 제1 신경망으로부터 입력된 상기 기준 이미지의 특징 데이터를 융합할 수 있다.Even when the feature data of the first extracted image and the feature data of the second extracted image are acquired by the same neural network, the feature data of the first extracted image, the feature data of the second extracted image, and the feature data of the reference image are all parallel. Can be input to the third neural network. In this case, the third neural network includes feature data of the first extracted image input from the second neural network, feature data of the second extracted image also input from the second neural network, and the feature data input from the first neural network. Feature data of the reference image may be fused.

단계 S111에서 제1 신경망, 제2 신경망 및 제4 신경망 각각의 출력 데이터가 제3 신경망에 입력됨으로써, 상기 제3 신경망에서 상기 기준 이미지의 특징 데이터, 상기 제1 추출 이미지의 특징 데이터 및 상기 제2 추출 이미지의 특징 데이터가 모두 융합되고, 융합된 특징을 이용하여 분류(classification) 등의 태스크가 더 수행될 수 있을 것이다.In step S111, output data of each of the first neural network, the second neural network, and the fourth neural network are input to a third neural network, so that feature data of the reference image, feature data of the first extracted image, and the second neural network are All feature data of the extracted image may be fused, and a task such as classification may be further performed using the fused feature.

도 3을 참조하여 다양한 설정으로 촬영된 피사체의 복수의 이미지에 관하여 상세히 설명한다. 피사체의 촬영과 관련된 상기 설정을 달리함으로써 다양한 기준 이미지 및 비교 이미지가 획득될 수 있다.A plurality of images of a subject photographed with various settings will be described in detail with reference to FIG. 3. Various reference images and comparison images may be obtained by varying the settings related to photographing of the subject.

본 발명의 몇몇 실시예에 따른 제1 비교 이미지의 촬영과 관련된 '설정'과 제2 비교 이미지의 촬영과 관련된 '설정'은 카메라 각도에 관한 정보일 수 있다. 예를 들어 기준 이미지가 3번 설정(102)으로 획득된 이미지(122)인 경우, 제1 비교 이미지와 제2 비교 이미지는 동일한 수치의 카메라 각도이되, 서로 다른 방향으로 설정된 촬영에 의해 획득될 수 있다. 따라서 기준 이미지(122)가 촬영된 카메라 위치와 피사체 간의 직선(102)을 기준으로 2번 설정(101)의 카메라 각도(105)와 4번 설정(103)의 카메라 각도(106)가 동일한 경우, 2번 설정에 의해 획득된 이미지(121)와 4번 설정에 의해 획득된 이미지(123) 각각은 제1 비교 이미지와 제2 비교 이미지로 지정될 수 있다.According to some embodiments of the present invention,'setting' related to capturing of the first comparison image and'setting' related to capturing of the second comparison image may be information about a camera angle. For example, if the reference image is the image 122 acquired with the 3rd setting 102, the first comparison image and the second comparison image have the same camera angle, but can be acquired by shooting set in different directions. have. Therefore, if the camera angle 105 of the second setting 101 and the camera angle 106 of the fourth setting 103 are the same based on the straight line 102 between the camera position where the reference image 122 was captured and the subject, Each of the image 121 acquired by setting 2 and the image 123 acquired by setting 4 may be designated as a first comparison image and a second comparison image.

마찬가지로 기준 이미지(122)가 촬영된 카메라 위치와 피사체 간의 직선(102)을 기준으로 1번 설정(100)의 카메라 각도와 5번 설정(104)의 카메라 각도가 동일한 경우 상기 1번 설정(100)에 의해 획득된 이미지(120)와 5번 설정(104)에 의해 획득된 이미지(124) 각각은 제1 비교 이미지와 제2 비교 이미지로 지정될 수 있다. 또한 비교 이미지의 개수는 2개에 한정되지 않는 바, 상기 1번 설정(100)에 의해 획득된 이미지(120), 상기 2번 설정(101)에 의해 획득된 이미지(121), 상기 4번 설정(103)에 의해 획득된 이미지(123) 및 상기 5번(104) 설정에 의해 획득된 이미지(104)를 포함하는 4개 이상의 비교 이미지가 획득될 수도 있다.Likewise, if the camera angle of setting No. 1 (100) and the camera angle of setting No. 5 (104) are the same based on the straight line 102 between the camera location where the reference image 122 was captured and the subject, setting No. 1 (100) Each of the image 120 obtained by and the image 124 obtained by setting #5 104 may be designated as a first comparison image and a second comparison image. Also, since the number of comparison images is not limited to two, the image 120 obtained by the first setting 100, the image 121 obtained by the second setting 101, and the fourth setting Four or more comparison images including the image 123 obtained by 103 and the image 104 obtained by setting No. 5 104 may be obtained.

상기 획득된 복수의 비교 이미지를 이용하여 상기 복수의 비교 이미지 각각을 기초로 복수의 추출 이미지가 획득됨으로써, 상기 다양한 조합의 복수의 추출 이미지를 이용한 풍부한 양의 신경망 학습 데이터가 생성될 수 있다.A plurality of extracted images are obtained based on each of the plurality of comparison images using the obtained plurality of comparison images, so that a rich amount of neural network training data may be generated using the plurality of extracted images of various combinations.

또한 본 발명의 몇몇 실시예에서 상기 추출 이미지와 상기 추출 이미지에 대응되는 깊이 정보가 신경망의 학습에 더 이용될 수 있다. 이 경우, 일 실시예에 따른 추출 이미지에 대응되는 깊이 정보는 기준 이미지가 촬영된 카메라 위치와 피사체 간의 직선과 비교 이미지가 촬영된 카메라 위치와 피사체 간의 직선 간 각도 차이일 수 있다.In addition, in some embodiments of the present invention, the extracted image and depth information corresponding to the extracted image may be further used for learning of a neural network. In this case, the depth information corresponding to the extracted image according to an exemplary embodiment may be a straight line between a camera position at which a reference image is captured and a subject, and an angle difference between a camera position at which the comparison image is captured and a straight line between the subject.

상기 깊이 정보는 도 4에 도시된 바와 같이 기 지정된 기준면에서 피사체의 특정 단층면까지의 높이 차이에 대한 정보일 수 있다. 따라서 기준 이미지에 대응되는 피사체의 높이(113)와 제1 비교 이미지에 대응되는 피사체의 높이(111) 간 차이는 기준 이미지에 대응되는 피사체의 높이(113)와 제2 비교 이미지에 대응되는 피사체의 높이(112) 간 차이와 동일한 수치를 갖도록 상기 기준 이미지, 제1 비교 이미지 및 제2 비교 이미지가 지정될 수 있다.As illustrated in FIG. 4, the depth information may be information on a height difference from a predetermined reference plane to a specific tomographic plane of the subject. Therefore, the difference between the height 113 of the subject corresponding to the reference image and the height 111 of the subject corresponding to the first comparison image is the difference between the height 113 of the subject corresponding to the reference image and the subject corresponding to the second comparison image. The reference image, the first comparison image, and the second comparison image may be designated to have the same value as the difference between the heights 112.

이하 도 5를 참조하여, 연속 촬영의 설정 변경에 따라 획득되는 복수의 이미지에서, 기준 이미지 및 비교 이미지를 획득하는 방법을 설명한다.Hereinafter, a method of acquiring a reference image and a comparison image from a plurality of images acquired according to a setting change of continuous shooting will be described with reference to FIG. 5.

예를 들어 피사체에 대한 촬영 각도를 연속적으로 조절함으로써 복수의 2D 이미지(210)가 획득될 수 있고, 획득된 복수의 2D 이미지(210)중 하나의 2D 이미지가 기준 이미지로 지정될 수 있다.For example, a plurality of 2D images 210 may be obtained by continuously adjusting a photographing angle of a subject, and one 2D image among the obtained 2D images 210 may be designated as a reference image.

일 실시예에 따른 상기 기준 이미지는 복수의 이미지 중 피사체에 관하여 가장 많은 정보가 포함되는 이미지로 지정될 수 있다. 하지만 다양한 신경망 학습 데이터를 확보하기 위하여 태스크(task)마다 상기 복수의 이미지(210) 각각이 모두 기준 이미지로 지정되어 신경망 학습에 이용될 수 있다.The reference image according to an exemplary embodiment may be designated as an image including the most information about a subject among a plurality of images. However, in order to secure various neural network training data, each of the plurality of images 210 is designated as a reference image for each task and may be used for neural network training.

본 발명의 몇몇 실시예에서 신경망 학습 태스크가 반복되는 경우, 이전 신경망 학습에서 사용된 기준 이미지와 상이한 기준 이미지를 이용하여 동일한 신경망의 학습 과정이 반복될 수 있다. 반복되는 신경망 학습 과정마다, 이전 신경망 학습과정에서 획득할 수 없었던 피사체에 대한 정보를 포함하는 기준 이미지가 새롭게 지정되고, 각각의 기준 이미지와 관련된 추출 이미지를 이용하여 신경망이 학습될 수 있다.In some embodiments of the present invention, when the neural network training task is repeated, the training process of the same neural network may be repeated using a reference image different from the reference image used in the previous neural network training. For each repetitive neural network training process, a reference image including information on a subject that could not be acquired in the previous neural network training process is newly designated, and the neural network may be trained using an extracted image related to each reference image.

이 경우, 각각의 기준 이미지에 포함된 다양한 피사체에 관한 정보뿐 아니라 상기 기준 이미지에 따라 달리지는 추출 이미지에 관한 정보도 신경망 학습에 이용되어 더욱 고도화된 신경망이 형성될 수 있다.In this case, not only information on various subjects included in each reference image but also information on an extracted image running according to the reference image may be used for neural network learning, thereby forming a more advanced neural network.

기준 이미지(201)가 지정된 후, 상기 기준 이미지(201)와 상이한 하나 이상의 비교 이미지(202, 203, 204, 205)가 지정될 수 있다. 일 실시예에 따라 하나의 추출 이미지를 획득하기 위해 하나의 기준 이미지와 하나의 비교 이미지가 지정될 수도 있고, 하나의 기준 이미지와 두개 이상의 비교 이미지가 지정될 수도 있다.After the reference image 201 is designated, one or more comparison images 202, 203, 204, and 205 different from the reference image 201 may be designated. According to an embodiment, in order to obtain one extracted image, one reference image and one comparison image may be designated, or one reference image and two or more comparison images may be designated.

도 5에 도시된 바와 같이 피사체의 복수의 깊이 정보 각각에 대응되는 복수의 이미지(210)가 상기 깊이 정보를 기준으로 정렬될 수 있다. 일 실시예에 따라 피사체의 깊이 '0'에 대응되는 기준 이미지(201)가 획득된 경우, 피사체의 깊이 '-5'에 대응되는 제1 비교 이미지(202)와 피사체의 깊이 '+5'에 대응되는 제2 비교 이미지(203)는 각각 기준 이미지(201)와 동일한 깊이 차이를 갖도록 지정된 것일 수 있다.As shown in FIG. 5, a plurality of images 210 corresponding to each of a plurality of depth information of a subject may be aligned based on the depth information. According to an embodiment, when the reference image 201 corresponding to the depth '0' of the subject is acquired, the first comparison image 202 corresponding to the depth'-5' of the subject and the depth of the subject'+5' are The corresponding second comparison images 203 may each be designated to have the same depth difference as the reference image 201.

다른 실시예에 따라 기준 이미지(201)와 다양한 깊이 정보를 갖는 여러 쌍의 비교 이미지(202, 203, 204, 205)가 추출 이미지를 획득하기 위해 이용될 수 있다. 예를 들어 피사체의 깊이 '0'에 대응되는 기준 이미지(201)가 획득된 경우, 피사체의 깊이 '-5'에 대응되는 이미지(202)와 피사체의 깊이 '+5'에 대응되는 이미지(203)가 각각 한 쌍의 제1 비교 이미지와 제2 비교 이미지로 획득될 수 있고, 피사체의 깊이 '-10'에 대응되는 이미지(204)와 피사체의 깊이 '+10'에 대응되는 이미지(205)도 각각 다른 한 쌍의 제1 비교 이미지와 제2 비교 이미지로 더 획득될 수 있다.According to another embodiment, the reference image 201 and several pairs of comparison images 202, 203, 204, and 205 having various depth information may be used to obtain the extracted image. For example, when the reference image 201 corresponding to the depth '0' of the subject is acquired, the image 202 corresponding to the depth'-5' of the subject and the image 203 corresponding to the depth'+5' of the subject ) May be obtained as a pair of first and second comparison images, respectively, an image 204 corresponding to the depth of the subject'-10' and an image 205 corresponding to the depth of the subject'+10' Also, a pair of different first and second comparison images may be further obtained.

이하, 도 6을 참조하여 기준 이미지와 비교 이미지를 이용하여 추출 이미지를 획득하는 방법을 설명한다.Hereinafter, a method of acquiring an extracted image using a reference image and a comparison image will be described with reference to FIG. 6.

추출 이미지는 기준 이미지와 상이한 '깊이 정보'를 갖는 비교 이미지를 기초로 형성된 이미지일 수 있다. 일 실시예에 따른 추출 이미지는 기준 이미지와 비교 이미지 간 픽셀 값의 차이를 이용하여 획득될 수 있다. 다른 실시예에서 추출 이미지는 상기 기준 이미지와 비교 이미지 간 픽셀 값의 차이에 절대값을 취함으로써 획득될 수 있고, 상기 추출 이미지는 상기 절대값으로 변환된 수치를 기초로 생성된 흑백 이미지 일 수도 있다.The extracted image may be an image formed based on a comparison image having'depth information' different from the reference image. The extracted image according to an embodiment may be obtained using a difference in pixel values between the reference image and the comparison image. In another embodiment, the extracted image may be obtained by taking an absolute value from the difference in pixel values between the reference image and the comparison image, and the extracted image may be a black and white image generated based on a numerical value converted to the absolute value. .

일 실시예에 따라 하나의 기준 이미지와 하나의 비교 이미지가 획득된 경우, 상기 기준 이미지와 비교 이미지 간 차이를 기초로 하나의 추출 이미지가 획득될 수 있다.According to an embodiment, when one reference image and one comparison image are obtained, one extracted image may be obtained based on a difference between the reference image and the comparison image.

다른 실시예에 따라 도 6에 도시된 바와 같이 하나의 기준 이미지와 두개의 비교 이미지가 획득된 경우, 기준 이미지와 제1 비교 이미지 간의 차이 및 기준 이미지와 제2 비교 이미지 간의 차이를 기초로 각각 제1 추출 이미지와 제2 추출 이미지가 획득될 수 있다.According to another embodiment, when one reference image and two comparison images are obtained, as shown in FIG. 6, based on the difference between the reference image and the first comparison image and the difference between the reference image and the second comparison image, respectively. The first extracted image and the second extracted image may be obtained.

비교 이미지가 신경망에 입력되어 상기 신경망 학습에 이용되는 대신, 추출 이미지가 신경망에 입력되어 상기 신경망 학습에 이용됨으로써 기준 이미지 및 비교 이미지만으로는 획득할 수 없는 피사체의 깊이 정보가 신경망 학습에 더 이용될 수 있다.Instead of the comparison image being input to the neural network and used for training the neural network, the extracted image is input to the neural network and used for training the neural network, so that depth information of the subject that cannot be obtained using only the reference image and the comparison image can be further used for the neural network training have.

이하, 도 7을 참조하여 하나의 기준 이미지와 하나의 추출 이미지를 이용한 피사체 특징 추출 신경망의 구성에 대하여 상세히 설명한다.Hereinafter, a configuration of a subject feature extraction neural network using one reference image and one extracted image will be described in detail with reference to FIG. 7.

먼저 제1 신경망(310)을 이용하여 기준 이미지의 특징 데이터(311)를 획득하고, 제2 신경망(320)을 이용하여 제1 추출 이미지의 특징 데이터(321)를 획득할 수 있다. 기준 이미지의 특징 데이터(311) 및 제1 추출 이미지의 특징 데이터(321)는 너비(width), 높이(height) 및 채널(channel) 값에 대한 정보를 포함하는 데이터일 수 있다. 상기 제1 신경망 및 상기 제2 신경망에서 출력되는 특징 데이터 특징 맵(map)일 수 있다.First, the feature data 311 of the reference image may be obtained using the first neural network 310 and the feature data 321 of the first extracted image may be obtained using the second neural network 320. The feature data 311 of the reference image and the feature data 321 of the first extracted image may be data including information on a width, a height, and a channel value. It may be a feature map of feature data output from the first neural network and the second neural network.

이후, 상기 기준 이미지의 특징 데이터(311) 및 제1 추출 이미지의 특징 데이터(321)는 상기 특징 데이터들(311, 312)을 융합(fusion)하는 제3 신경망(322)에 입력될 수 있다. 상기 제3 신경망(322)은 피사체의 특징을 이용하여 수행된 태스크의 결과를 가리키는 태스크 결과 맵(323)을 출력할 수 있다.Thereafter, the feature data 311 of the reference image and the feature data 321 of the first extracted image may be input to a third neural network 322 that fusions the feature data 311 and 312. The third neural network 322 may output a task result map 323 indicating a result of a task performed by using the characteristics of the subject.

도 8에 도시된 바와 같이 제1 신경망(330)에서 출력된 특징 데이터(331)와 제2 신경망(340)에서 출력된 특징 데이터(341)를 융합하는 신경망(350)에서 출력된 특징 데이터를 입력 받아 분류(classification)와 같은 태스크를 수행하는 신경망(360)이 태스크 결과 맵(361)을 출력할 수도 있다.As shown in FIG. 8, the feature data output from the neural network 350 that fuses the feature data 331 output from the first neural network 330 and the feature data 341 output from the second neural network 340 is input. The neural network 360 that receives and performs a task such as classification may output a task result map 361.

태스크 결과 맵(361)은 피사체에 대한 2D 이미지의 특징 데이터를 이용하여 추출할 수 있는 피사체의 특징과 관련된 정보를 가리키는 데이터이다. 예를 들어, 태스크 결과 맵(361)은 사람의 신체에 대한 단층 촬영 이미지를 이용하여 추출할 수 있는 상기 사람의 신체에 대한 암 발병 여부를 가리키는 데이터일 수 있다.The task result map 361 is data indicating information related to the feature of a subject that can be extracted using feature data of a 2D image of the subject. For example, the task result map 361 may be data indicating whether cancer has occurred in the human body, which can be extracted using a tomography image of the human body.

이하 도 9 내지 도 10을 참조하여 특징 데이터를 융합하는 방법에 대하여 상세히 설명한다. 도 9에 도시된 바와 같이, 복수의 특징 데이터들을 입력 받은 신경망(372)은, 특징 데이터 융합의 결과로서, 상기 복수의 특징 데이터(370, 371)가 채널 축을 기준으로 연결(concatenate)된 데이터(373)를 생성할 수 있다.Hereinafter, a method of fusing feature data will be described in detail with reference to FIGS. 9 to 10. As shown in FIG. 9, the neural network 372 receiving a plurality of feature data inputs is data in which the plurality of feature data 370 and 371 are concatenated based on a channel axis as a result of feature data fusion. 373) can be created.

또는, 도 10에 도시된 바와 같이 복수의 특징 데이터(380, 381)들을 입력 받은 신경망(382)은 하나 이상의 중첩(convolution) 단계와 하나 이상의 통합(pooling)단계를 포함하고 곱셈, 덧셈 및 감산 등의 연산을 통해 입력 데이터와 동일한 크기의 데이터(383)를 출력할 수도 있다. 상기 특징 데이터 융합의 결과로서 출력된 특징 데이터(383)는 상기 특징 데이터들을 이용하여 분류(classification) 또는 클러스터링 중 어느 하나 이상을 수행할 수 있는 신경망(384)에 입력되고, 상기 신경망(384)으로부터 태스크 결과 맵(385)이 출력될 수 있다.Alternatively, as shown in FIG. 10, the neural network 382 receiving a plurality of feature data 380, 381 includes one or more convolution steps and one or more pooling steps, and multiplication, addition, and subtraction, etc. It is also possible to output data 383 having the same size as the input data through the operation of. Feature data 383 output as a result of the feature data fusion is input to a neural network 384 capable of performing any one or more of classification or clustering using the feature data, and from the neural network 384 The task result map 385 may be output.

본 발명의 또 다른 실시예에 따르면 도 11에 도시된 바와 같이 하나의 기준 이미지와 복수의 추출 이미지가 신경망 학습에 이용될 수 있다.According to another embodiment of the present invention, as shown in FIG. 11, one reference image and a plurality of extracted images may be used for neural network training.

기준 이미지의 특징 데이터(401), 제1 추출 이미지의 특징 데이터(411)및 제2 추출 이미지의 특징 데이터(421)를 이용하여 제3 신경망을 학습시키는 경우 기준 이미지에 포함된 피사체에 관한 정보와 제1 추출 이미지에 상응하는 피사체에 관한 정보 및 제2 추출 이미지에 상응하는 피사체에 관한 정보가 모두 제3 신경망 학습에 이용 될 수 있고, 상기 제1 추출 이미지의 깊이 정보 및 상기 제1 추출 이미지의 깊이 정보가 상기 제3 신경망 학습에 더 이용될 수도 있다. 전술한 바와 같이, 상기 제1 추출 이미지와 상기 제2 추출 이미지는 각각 상기 기준 이미지를 중심으로 깊이 측면에서 대칭을 이루는 제1 비교 이미지와 제2 비교 이미지를 기초로 형성될 수 있다.When a third neural network is trained using the feature data 401 of the reference image, the feature data 411 of the first extracted image, and the feature data 421 of the second extracted image, information on the subject included in the reference image and Information on the subject corresponding to the first extracted image and information on the subject corresponding to the second extracted image can be used for training a third neural network, and depth information of the first extracted image and information on the first extracted image Depth information may be further used for training the third neural network. As described above, the first extracted image and the second extracted image may be formed based on a first comparison image and a second comparison image that are symmetrical in depth with respect to the reference image, respectively.

따라서 제1 추출 이미지와 제2 추출 이미지가 모두 병렬적으로 신경망 학습에 이용되는 경우, 일정 깊이 차이에 따라 반복적으로 존재하는 피사체의 특징과 관련된 정보와 같이, 하나의 추출 이미지와 기준 이미지만을 이용하여 신경망을 학습시키는 경우에는 획득할 수 없는 정보를 더 획득할 수 있다.Therefore, when both the first extracted image and the second extracted image are used in parallel for neural network training, only one extracted image and a reference image are used, such as information related to the characteristic of a subject that repeatedly exists according to a certain depth difference. In the case of training a neural network, more information that cannot be obtained may be obtained.

또한, 다른 실시예에 따라 기준 이미지의 특징 데이터(401), 제1 추출 이미지의 특징 데이터(411)및 제2 추출 이미지의 특징 데이터(421)는 기 지정된 가중치로 제3 신경망에 입력될 수 있다.In addition, according to another embodiment, the feature data 401 of the reference image, the feature data 411 of the first extracted image, and the feature data 421 of the second extracted image may be input to the third neural network with a predetermined weight. .

일 실시예에서 기준 이미지의 특징 데이터(401)에 가장 큰 가중치가 부여될 수 있다.In an embodiment, the largest weight may be assigned to the feature data 401 of the reference image.

다른 실시예에서, 제1 추출 이미지의 특징 데이터(411)의 가중치와 제2 추출 이미지의 특징 데이터(421)의 가중치가, 기준 이미지의 특징 데이터(401)의 가중치보다 더 클 수도 있다. 또 다른 실시예에서, 제1 추출 이미지의 특징 데이터(411)의 가중치와 제2 추출 이미지의 특징 데이터(421)의 가중치는 동일 하게 부여될 수 있다. 또한, 기준 이미지의 특징 데이터(401)와 제1 추출 이미지의 특징 데이터(411)와 제2 추출 이미지의 특징 데이터(421)에 대한 가중치가 모두 동일하게 지정될 수도 있다.In another embodiment, the weight of the feature data 411 of the first extracted image and the weight of the feature data 421 of the second extracted image may be greater than the weight of the feature data 401 of the reference image. In another embodiment, the weight of the feature data 411 of the first extracted image and the weight of the feature data 421 of the second extracted image may be equally assigned. In addition, weights for the feature data 401 of the reference image, the feature data 411 of the first extracted image, and the feature data 421 of the second extracted image may all be equally designated.

즉, 상기 기준 이미지의 특징 데이터, 제1 추출 이미지의 특징 데이터 및 제2 추출 이미지의 특징 데이터에 지정되는 가중치는 신경망에서 추출하고자 하는 피사체의 특징이 무엇인지에 따라 다양하게 지정될 수 있을 것이다.That is, the weights assigned to the feature data of the reference image, the feature data of the first extracted image, and the feature data of the second extracted image may be variously designated according to the feature of the subject to be extracted from the neural network.

도 12를 참조할 때, 본 발명의 또 다른 실시예에 따르면 기준 이미지, 제1 비교 이미지 및 제1 추출 이미지가 신경망의 학습에 이용될 수 있다.Referring to FIG. 12, according to another embodiment of the present invention, a reference image, a first comparison image, and a first extracted image may be used for training a neural network.

기준 이미지와 제1 추출 이미지만 신경망에 학습데이터로 이용되는 경우, 제1 추출 이미지에 포함된 피사체에 관한 깊이 정보 외의 피사체에 관한 정보는 대부분 기준 이미지로부터 획득할 수 밖에 없다. 따라서, 기준 이미지와 제1 추출 이미지뿐 아니라 제1 비교 이미지를 더 이용하여, 상기 제1 비교 이미지에만 포함된 피사체에 관한 정보를 신경망의 학습에 더 이용할 수 있다. 본 실시예에의 따른 기준 이미지를 입력 받는 신경망(440)은 상기 기준 이미지의 특징 데이터(441)를 출력할 수 있고, 제1 비교 이미지를 입력 받는 신경망(450)은 상기 제1 비교 이미지의 특징 데이터(451)를 출력할 수 있다. 그리고 제1 추출 이미지를 입력 받는 신경망(460)은 상기 제1 추출 이미지의 특징 데이터(461)를 출력할 수 있다.When only the reference image and the first extracted image are used as training data for the neural network, most of the information on the subject other than depth information on the subject included in the first extracted image must be obtained from the reference image. Accordingly, by further using the first comparison image as well as the reference image and the first extracted image, information on the subject included only in the first comparison image can be further used for learning of the neural network. The neural network 440 receiving the reference image according to the present embodiment may output feature data 441 of the reference image, and the neural network 450 receiving the first comparison image may output the feature data 441 of the first comparison image. Data 451 may be output. In addition, the neural network 460 receiving the first extracted image may output feature data 461 of the first extracted image.

도 13을 참조하여 기준 이미지의 특징 데이터와 비교 이미지의 특징 데이터 간 차이를 기초로 형성된 추출 데이터를 이용하여 신경망을 학습하는 방법에 대해 설명한다. A method of learning a neural network using extracted data formed based on a difference between feature data of a reference image and feature data of a comparison image will be described with reference to FIG. 13.

본 실시예에 따르면 기준 이미지의 특징 데이터(490)와 제1 비교 이미지의 특징 데이터(491a) 간 차이를 기초로 제1 추출 데이터(491b)가 형성 될 수 있고, 기준 이미지의 특징 데이터(490)와 제2 비교 이미지의 특징 데이터(492a) 간의 차이를 기초로 제2 추출 데이터(492b)가 형성될 수 있다.According to the present embodiment, the first extracted data 491b may be formed based on the difference between the feature data 490 of the reference image and the feature data 491a of the first comparison image, and the feature data 490 of the reference image The second extracted data 492b may be formed based on a difference between the feature data 492a of the and the second comparison image.

상기 기준 이미지의 특징 데이터(490)와 제1 비교 이미지의 특징 데이터(491a) 간 차이 및 상기 기준 이미지의 특징 데이터(490)와 제2 비교 이미지의 특징 데이터(492a) 간 차이는 기준 이미지의 특징 데이터(490), 제1 비교 이미지의 특징 데이터(491a) 및 제2 비교 이미지의 특징 데이터(492a) 각각에 포함된 수치 값의 감산(subtraction) 연산을 기초로 형성될 수 있다. 구체적으로 특징 데이터들의 너비, 높이, 채널 값 중 어느 하나 이상을 감산 연산에 이용할 수 있다.The difference between the feature data 490 of the reference image and the feature data 491a of the first comparison image and the difference between the feature data 490 of the reference image and the feature data 492a of the second comparison image are the characteristics of the reference image. It may be formed based on a subtraction operation of a numerical value included in each of the data 490, the feature data 491a of the first comparison image, and the feature data 492a of the second comparison image. Specifically, any one or more of the width, height, and channel values of the feature data may be used for the subtraction operation.

이 경우, 기준 이미지의 특징 데이터(490)와 제1 추출 데이터(491b) 및 제2 추출 데이터(492b)가 피사체의 특징을 추출하는 제3 신경망의 입력 데이터로 이용될 수 있다.In this case, the feature data 490 of the reference image, the first extracted data 491b, and the second extracted data 492b may be used as input data of a third neural network for extracting a feature of a subject.

이와 같이, 본 개시는 복수의 이미지 간의 차이점 추출뿐만 아니라, 특징 영역(feature space) 상에서의 차이점 추출도 가능하다. 그리고 특징 영역 상에서 추출된 차이점을 이용하여 상술한 것과 같은 신경망 학습이 수행될 수도 있다.As described above, according to the present disclosure, not only differences between a plurality of images are extracted, but also differences in a feature space may be extracted. In addition, neural network training as described above may be performed using the difference extracted on the feature region.

이하 도 14를 참조하여 신경망 학습 장치의 동작에 대하여 상세히 설명한다.Hereinafter, the operation of the neural network learning apparatus will be described in detail with reference to FIG. 14.

본 발명의 또 다른 실시예에 따른 피사체 특징 추출 신경망 학습 장치(500)는 이미지 특징 추출 신경망부(502), 피사체 특징 추출 신경망부(504) 및 이미지 특징 데이터 DB(513)를 포함하고, 몇몇 실시예에서 이미지 전처리부(501), 특징 데이터 전처리부(503), 피사체 이미지 DB(511) 및 추출 이미지 DB(512)를 더 포함할 수 있다.A subject feature extraction neural network training apparatus 500 according to another embodiment of the present invention includes an image feature extraction neural network unit 502, a subject feature extraction neural network unit 504, and an image feature data DB 513, and some implementations In an example, an image preprocessor 501, a feature data preprocessor 503, a subject image DB 511, and an extracted image DB 512 may be further included.

이미지 전처리부(501)는 피사체 이미지 DB(511)로부터 기준 이미지 및 비교 이미지를 수신할 수 있고, 상기 피사체 이미지 DB(511)로부터 수신한 기준 이미지 및 비교 이미지 간의 차이를 이용하여 추출 이미지를 형성할 수 있다. 일 실시예에 따른 이미지 전처리부(501)는 상기 기준 이미지 및 비교 이미지 간 픽셀 값의 차이를 이용하여 추출 이미지를 획득할 수 있고, 기준 이미지의 특징 데이터 및 비교 이미지의 특징 데이터 간 수치 값의 차이를 이용하여 추출 데이터를 획득할 수도 있다. 획득된 상기 추출 이미지 또는 상기 추출 데이터는 추출 이미지 DB(512)에 저장될 수 있다.The image preprocessor 501 may receive a reference image and a comparison image from the subject image DB 511, and form an extracted image by using the difference between the reference image and the comparison image received from the subject image DB 511. I can. The image preprocessor 501 according to an embodiment may obtain an extracted image by using a difference in pixel values between the reference image and the comparison image, and the difference in numerical values between the feature data of the reference image and the feature data of the comparison image Extraction data can also be obtained by using. The obtained extracted image or the extracted data may be stored in the extracted image DB 512.

이미지 특징 추출 신경망부(502)는 기준 이미지 및 추출 이미지를 이용하여 상기 기준 이미지의 상기 특징 데이터 및 추출 이미지의 특징 데이터를 출력할 수 있고 몇몇 실시예에서 비교 이미지를 이용하여 상기 비교 이미지의 특징 데이터를 출력할 수 있다. 일 실시예에 따른 이미지 특징 추출 신경망부(502)는 비교 이미지를 이용하여 상기 비교 이미지에 대한 특징 데이터도 출력할 수 있다. 상기 출력된 특징 데이터는 이미지 특징 데이터 DB(513)에 저장될 수 있다.The image feature extraction neural network unit 502 may output the feature data of the reference image and the feature data of the extracted image by using the reference image and the extracted image, and in some embodiments, the feature data of the comparison image Can be printed. The image feature extraction neural network unit 502 according to an embodiment may also output feature data for the comparison image by using the comparison image. The output feature data may be stored in the image feature data DB 513.

특징 데이터 전처리부(503)는 이미지 특징 데이터 DB(513)로부터 획득한 이미지의 특징 데이터를 융합(fusion)할 수 있다. 상기 데이터의 융합은 신경망(fusion network)에 의해 수행될 수 있으며, 상기 신경망으로부터 채널 축을 기준으로 연결(concatenate)되거나 합산(summation)된 특징 데이터가 출력 될 수 있다.The feature data preprocessor 503 may fusion feature data of an image acquired from the image feature data DB 513. The data fusion may be performed by a fusion network, and feature data concatenated or summed from the neural network based on a channel axis may be output.

피사체 특징 추출 신경망부(504)는 특징 데이터들을 입력 받아 피사체의 특징과 관련된 태스크 결과 맵을 출력할 수 있다. 일 실시예에 따른 피사체 특징 추출 신경망부(504)는 기준 이미지의 특징 데이터 및 추출 이미지의 특징 데이터를 가중치로 지정하여 신경망 학습에 이용할 수 있다.The subject feature extraction neural network unit 504 may receive feature data and output a task result map related to the subject feature. The subject feature extraction neural network unit 504 according to an embodiment may designate feature data of a reference image and feature data of the extracted image as weights and use them for neural network training.

도 15는 본 발명의 또 다른 실시예에 따른 신경망 학습 장치의 하드웨어 구성도이다.15 is a hardware configuration diagram of a neural network learning apparatus according to another embodiment of the present invention.

도 15에 도시된 바와 같이, 컴퓨팅 장치(500)는 하나 이상의 프로세서(550), 시스템 버스, 네트워크 인터페이스(530), 프로세서(550)에 의하여 수행되는 컴퓨터 프로그램을 로드(load)하는 메모리(522)와, 이미지 DB(541) 저장하는 스토리지(540)를 포함할 수 있다. 도 15에는 본 개시의 실시예와 관련 있는 일부 구성요소가 도시되어 있다. 따라서, 본 개시가 속한 기술분야의 통상의 기술자라면 도 15에 도시된 구성요소들 외에 다른 범용적인 구성 요소들이 더 포함될 수 있음을 알 수 있다.As shown in FIG. 15, the computing device 500 includes one or more processors 550, a system bus, a network interface 530, and a memory 522 that loads a computer program executed by the processor 550. And, it may include a storage 540 that stores the image DB (541). 15 illustrates some components related to an embodiment of the present disclosure. Accordingly, those of ordinary skill in the art to which the present disclosure belongs may recognize that other general-purpose components may be further included in addition to the components illustrated in FIG. 15.

프로세서(550)는 컴퓨팅 장치(500)의 각 구성의 전반적인 동작을 제어한다. 프로세서(550)는 CPU(Central Processing Unit), MPU(Micro Processor Unit), MCU(Micro Controller Unit), GPU(Graphic Processing Unit) 또는 본 개시의 기술 분야에 잘 알려진 임의의 형태의 프로세서 중 적어도 하나를 포함하여 구성될 수 있다. 컴퓨팅 장치(500)는 복수의 프로세서를 구비할 수도 있다. 프로세서(550)는 범용 프로세서가 아닌 머신 러닝에 특화된 구조를 가진 프로세서일 수도 있을 것이다.The processor 550 controls the overall operation of each component of the computing device 500. The processor 550 includes at least one of a CPU (Central Processing Unit), MPU (Micro Processor Unit), MCU (Micro Controller Unit), GPU (Graphic Processing Unit), or any type of processor well known in the technical field of the present disclosure. It can be configured to include. The computing device 500 may also include a plurality of processors. The processor 550 may not be a general-purpose processor but may be a processor having a structure specialized for machine learning.

메모리(522)는 각종 데이터, 명령 및/또는 정보를 저장한다. 메모리(522)는 본 개시의 다양한 실시예들에 따른 방법/동작을 실행하기 위하여 스토리지(540)로부터 하나 이상의 인스트럭션들(instructions)(523, 524, 525)을 로드 할 수 있다. 메모리(522)는 RAM과 같은 휘발성 메모리로 구현될 수 있을 것이나, 본 개시의 기술적 범위가 이에 한정되는 것은 아니다.The memory 522 stores various types of data, commands and/or information. The memory 522 may load one or more instructions 523, 524, and 525 from the storage 540 to execute a method/operation according to various embodiments of the present disclosure. The memory 522 may be implemented as a volatile memory such as RAM, but the technical scope of the present disclosure is not limited thereto.

버스는 컴퓨팅 장치(500)의 구성 요소 간 통신 기능을 제공한다. 버스는 주소 버스(Address Bus), 데이터 버스(Data Bus) 및 제어 버스(Control Bus) 등 다양한 형태의 버스로 구현될 수 있다.The bus provides communication functions between components of computing device 500. The bus may be implemented in various types of buses such as an address bus, a data bus, and a control bus.

네트워크 인터페이스(530)는 컴퓨팅 장치(500)의 유무선 인터넷 통신을 지원한다. 또한, 네트워크 인터페이스(530)는 인터넷 통신 외의 다양한 통신 방식을 지원할 수도 있다. 이를 위해, 통신 인터페이스(530)는 본 개시의 기술 분야에 잘 알려진 통신 모듈을 포함하여 구성될 수 있다. 경우에 따라, 네트워크 인터페이스(530)는 생략될 수도 있다.The network interface 530 supports wired/wireless Internet communication of the computing device 500. In addition, the network interface 530 may support various communication methods other than Internet communication. To this end, the communication interface 530 may be configured to include a communication module well known in the technical field of the present disclosure. In some cases, the network interface 530 may be omitted.

스토리지(540)는 상기 하나 이상의 프로그램(미도시) 및 이미지 DB(541)를 비임시적으로 저장할 수 있다. 스토리지(540)는 플래시 메모리 등과 같은 비휘발성 메모리, 하드 디스크, 착탈형 디스크, 또는 본 개시가 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터로 읽을 수 있는 기록 매체를 포함하여 구성될 수 있다.The storage 540 may non-temporarily store the one or more programs (not shown) and the image DB 541. The storage 540 may include a nonvolatile memory such as a flash memory, a hard disk, a removable disk, or any type of computer-readable recording medium well known in the art to which the present disclosure pertains.

이미지 DB(541)는 본 발명의 신경망 학습에 사용되는 피사체의 이미지, 피사체의 복수의 이미지 간 차이에 관한 데이터로 형성된 추출 이미지 및 복수의 이미지의 특징을 추출하는 신경망에서 출력된 특징 데이터가 저장될 수 있다.The image DB 541 stores an image of a subject used in the neural network learning of the present invention, an extracted image formed from data on differences between a plurality of images of the subject, and feature data output from a neural network that extracts features of a plurality of images. I can.

운영체제에 의하여 실행됨에 따라 메모리(522)로 로드되는 컴퓨터 프로그램(미도시)은 학습 데이터를 이용하여 CNN 기반의 뉴럴 네트워크를 학습시키는 동작을 수행한다. 컴퓨터 프로그램의 동작 결과로서 CNN 기반의 뉴럴 네트워크를 정의하는 데이터가 스토리지(540)에 저장될 수 있다. CNN 기반의 뉴럴 네트워크를 정의하는 데이터는 학습 목적에 부합하는 출력을 생성하는 모델로서 네트워크 인터페이스(530)를 통해 다른 컴퓨팅 장치에 송신될 수 있다. 상기 다른 컴퓨팅 장치는 상기 모델을 이용하여 추론(inferring)을 수행할 수 있다. 상기 추론의 예로서, 의료 영상에서 병변의 위치를 찾는 것을 고려할 수 있다.A computer program (not shown) loaded into the memory 522 as it is executed by the operating system performs an operation of learning a CNN-based neural network using the training data. As a result of the operation of the computer program, data defining a CNN-based neural network may be stored in the storage 540. The data defining the CNN-based neural network may be transmitted to another computing device through the network interface 530 as a model that generates an output suitable for a learning purpose. The other computing device may perform inferring using the model. As an example of the reasoning, it may be considered to find the location of a lesion in a medical image.

컴퓨터 프로그램은 메모리(522)에 로드된 후, 프로세서(550)로 하여금 도 1 내지 도 13을 참조하여 설명한 방법을 수행하도록 하는 인스트럭션들(523, 524, 525)을 포함할 수 있다. 즉, 프로세서(550)는 상기 인스트럭션들(523, 524, 525)을 실행함으로써, 도 1 내지 도 13을 참조하여 설명한 방법과 관련된 다양한 실시예에 따른 방법들을 수행할 수 있다. 본 명세서에서 인스트럭션이란, 기능을 기준으로 묶인 일련의 컴퓨터 판독가능 명령어들로서 컴퓨터 프로그램의 구성 요소이자 프로세서에 의해 실행되는 것을 가리킨다.The computer program may include instructions 523, 524, and 525 that, after being loaded into the memory 522, cause the processor 550 to perform the method described with reference to FIGS. 1 to 13. That is, the processor 550 may perform methods according to various embodiments related to the method described with reference to FIGS. 1 to 13 by executing the instructions 523, 524, and 525. In this specification, an instruction refers to a set of computer-readable instructions grouped on the basis of a function, which is a component of a computer program and executed by a processor.

일 실시예에 따른 이미지 차이값 추출 인스트럭션(523)이 실행됨으로써, 기준 이미지와 비교 이미지 간 픽셀 값의 차이로 기초로 형성된 추출 이미지 및 기준 이미지의 특징 데이터와 비교 이미지의 특징 데이터 간 차이를 기초로 형성된 추출 데이터가 획득될 수 있다.By executing the image difference value extraction instruction 523 according to an embodiment, based on the difference between the feature data of the extracted image and the feature data of the reference image and the extracted image formed based on the difference in pixel values between the reference image and the comparison image. The formed extraction data can be obtained.

일 실시예에 따른 이미지 특징 데이터 추출 인스트럭션(524)이 실행됨으로써, 기준 이미지의 특징 데이터 및 추출 이미지의 특징 데이터가 획득될 수 있고 몇몇 실시예에 따라 비교 이미지의 특징 데이터가 더 획득될 수 있다.By executing the image feature data extraction instruction 524 according to an embodiment, feature data of a reference image and feature data of an extracted image may be obtained, and feature data of a comparison image may be further obtained according to some embodiments.

일 실시예에 따른 신경망 학습 인스트럭션(525)이 실행됨으로써, 이미지의 특징을 추출하는 신경망, 추출된 특징 데이터를 융합하는 신경망이 학습될 수 있다.By executing the neural network training instruction 525 according to an embodiment, a neural network for extracting features of an image and a neural network for fusing the extracted feature data may be trained.

도 16는 본 발명의 또 다른 실시예에 따른 신경망 학습 시스템의 구성도이다.16 is a block diagram of a neural network learning system according to another embodiment of the present invention.

도 16에 도시된 바와 같이, 본 실시예에 따른 신경망 학습 시스템은 피사체 촬영장치(600) 및 기계 학습 장치(500)를 포함할 수 있다. 실시예에 따라 피사체 이미지 분석 결과 표시 장치(700)가 본 실시예에 따른 신경망 학습 시스템에 더 포함될 수도 있다.As shown in FIG. 16, the neural network learning system according to the present embodiment may include a subject photographing apparatus 600 and a machine learning apparatus 500. According to an embodiment, the object image analysis result display device 700 may be further included in the neural network learning system according to the present embodiment.

피사체 촬영 장치(600)는 본 발명의 몇몇 실시예에 따른 기준 이미지 및 비교 이미지를 촬영하는 장치일 수 있다. 예를 들어 상기 피사체 촬영 장치는 신체에 대한 의료 영상을 촬영하는 장치로서, 예를 들어 X-ray, CT, MRI 등의 영상을 촬영하는 장치일 수 있다. 피사체 촬영 장치(600)는 네트워크를 통해 촬영된 영상 데이터를 기계 학습 장치(500)에 제공한다. 의료 영상은 민감한 개인 정보이므로 상기 네트워크는 외부에서의 접속이 차단되는 네트워크일 수 있다. 즉, 기계 학습 장치(500)와 피사체 촬영 장치(600)는 같은 병원 내에 위치하는 장치일 수 있을 것이다.The object photographing device 600 may be a device for photographing a reference image and a comparison image according to some embodiments of the present invention. For example, the subject photographing apparatus is a device that photographs a medical image of a body, and may be a device that photographs an image such as X-ray, CT, MRI, and the like. The subject photographing apparatus 600 provides image data photographed through a network to the machine learning apparatus 500. Since medical images are sensitive personal information, the network may be a network from which external access is blocked. That is, the machine learning device 500 and the subject photographing device 600 may be devices located in the same hospital.

도 16의 기계 학습 장치(500)는 도 15에 도시된 것과 동일한 것으로 이해될 수 있을 것이다. 즉, 기계 학습 장치(500)는 피사체 촬영 장치(600)로부터 제공된 영상 데이터를 축적하고, 기계 학습 수행 기준이 만족되면, 새롭게 축적된 영상 데이터를 이용하여 기계 학습 목적에 맞는 출력 데이터를 출력하는 모델을 보다 고도하게 학습시킬 수 있을 것이다. 이 과정에서 도 1 내지 13를 참조하여 설명된 신경망 학습 방법이 수행되는 것이다.The machine learning apparatus 500 of FIG. 16 may be understood to be the same as that shown in FIG. 15. That is, the machine learning apparatus 500 accumulates image data provided from the subject photographing apparatus 600, and when the machine learning performance criteria are satisfied, the machine learning apparatus 500 outputs output data suitable for the purpose of machine learning using the newly accumulated image data. You will be able to learn more highly. In this process, the neural network learning method described with reference to FIGS. 1 to 13 is performed.

기계 학습 장치(500)에 의하여 학습된 모델의 정의 데이터는 피사체 이미지 분석 결과 표시 장치(700)에 송신될 수 있다. 피사체 촬영장치(600) 및 기계 학습 장치(500)와는 달리, 피사체 이미지 결과 표시 장치(700)는 피사체 촬영장치(600)가 설치된 병원 밖에 위치하는 컴퓨팅 장치일 수도 있다. 피사체 이미지 분석 결과 표시 장치(700)는 상기 모델의 정의 데이터를 기계 학습 장치(500)로부터 수신하여 저장하고, 분석 대상 이미지를 상기 모델에 입력함으로써, 분석 결과 데이터를 얻고, 상기 분석 결과 데이터를 렌더링 하며, 그 결과를 화면에 디스플레이 함으로써, 의료 영상에 대한 추론 결과를 표시할 수 있을 것이다.The definition data of the model learned by the machine learning device 500 may be transmitted to the object image analysis result display device 700. Unlike the subject photographing apparatus 600 and the machine learning apparatus 500, the subject image result display apparatus 700 may be a computing device located outside a hospital in which the subject photographing apparatus 600 is installed. The subject image analysis result display device 700 receives and stores the definition data of the model from the machine learning device 500, and inputs an analysis target image to the model to obtain analysis result data, and renders the analysis result data. And, by displaying the result on the screen, it will be possible to display the inference result for the medical image.

지금까지 설명된 본 발명의 실시예에 따른 방법들은 컴퓨터가 읽을 수 있는 이상에서, 본 발명의 실시예를 구성하는 모든 구성 요소들이 하나로 결합되거나 결합되어 동작하는 것으로 설명되었다고 해서, 본 개시의 기술적 사상이 반드시 이러한 실시예에 한정되는 것은 아니다. 즉, 본 개시의 목적 범위 안에서라면, 그 모든 구성요소들이 하나 이상으로 선택적으로 결합하여 동작할 수도 있다.The methods according to the embodiments of the present invention described so far are described as being combined or combined into one operation of all components constituting the embodiments of the present invention above the computer-readable, technical idea of the present disclosure. This is not necessarily limited to this embodiment. That is, as long as it is within the scope of the object of the present disclosure, one or more of the components may be selectively combined and operated.

도면에서 동작들이 특정한 순서로 도시되어 있지만, 반드시 동작들이 도시된 특정한 순서로 또는 순차적 순서로 실행되어야만 하거나 또는 모든 도시 된 동작들이 실행되어야만 원하는 결과를 얻을 수 있는 것으로 이해되어서는 안 된다. 특정 상황에서는, 멀티태스킹 및 병렬 처리가 유리할 수도 있다. 더욱이, 위에 설명한 실시예들에서 다양한 구성들의 분리는 그러한 분리가 반드시 필요한 것으로 이해되어서는 안 되고, 설명된 프로그램 컴포넌트들 및 시스템들은 일반적으로 단일 소프트웨어 제품으로 함께 통합되거나 다수의 소프트웨어 제품으로 패키지 될 수 있음을 이해하여야 한다.Although the operations are illustrated in a specific order in the drawings, it should not be understood that the operations must be executed in the specific order shown or in a sequential order, or all illustrated operations must be executed to obtain a desired result. In certain situations, multitasking and parallel processing may be advantageous. Moreover, the separation of the various components in the above-described embodiments should not be understood as necessitating such separation, and the program components and systems described may generally be integrated together into a single software product or packaged into multiple software products. It should be understood that there is.

이상 첨부된 도면을 참조하여 본 개시의 실시예들을 설명하였지만, 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자는 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 본 개시가 다른 구체적인 형태로도 실시될 수 있다는 것을 이해할 수 있다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적인 것이 아닌 것으로 이해해야만 한다. 본 개시의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 개시에 의해 정의되는 기술적 사상의 권리범위에 포함되는 것으로 해석되어야 할 것이다.Although the embodiments of the present disclosure have been described with reference to the accompanying drawings, the present disclosure may be implemented in other specific forms without changing the technical spirit or essential features of those of ordinary skill in the art. I can understand that there is. Therefore, it should be understood that the embodiments described above are illustrative in all respects and not limiting. The scope of protection of the present disclosure should be interpreted by the following claims, and all technical ideas within the scope equivalent thereto should be construed as being included in the scope of the technical ideas defined by the present disclosure.

Claims (20)

컴퓨팅장치에 의해 수행되는 신경망 학습 방법에 있어서,
피사체에 대해 촬영된 기준 이미지 및 상기 피사체에 대해 상기 기준 이미지와는 다른 촬영 설정으로 촬영된 제1 비교 이미지를 얻는 단계;
상기 기준 이미지와 상기 제1 비교 이미지 간의 차이를 기초로 형성된 제1 차이 이미지를 생성하는 단계;
상기 기준 이미지 및 상기 제1 차이 이미지 각각의 특징 데이터를 획득하는 단계; 및
상기 기준 이미지의 특징 데이터 및 상기 제1 차이 이미지의 특징 데이터를 이용하여 특정 태스크 결과를 출력하는 신경망을 학습하는 단계를 포함하는
신경망 학습 방법.
In the neural network learning method performed by a computing device,
Obtaining a reference image photographed with respect to a subject and a first comparison image photographed with a photographing setting different from that of the reference image with respect to the subject;
Generating a first difference image formed based on a difference between the reference image and the first comparison image;
Acquiring feature data of each of the reference image and the first difference image; And
And learning a neural network that outputs a specific task result by using the feature data of the reference image and the feature data of the first difference image.
How to learn a neural network.
제1항에 있어서,
상기 피사체에 대해, 상기 기준 이미지 및 상기 제1 비교 이미지 각각과는 다른 촬영 설정으로 촬영된 제2 비교 이미지를 얻는 단계;
상기 기준 이미지와 상기 제2 비교 이미지 간의 차이를 기초로 형성된 제2 차이 이미지를 생성하는 단계; 및
상기 생성된 제2 차이 이미지의 특징 데이터를 획득하는 단계를 더 포함하는
신경망 학습 방법.
The method of claim 1,
Obtaining, for the subject, a second comparison image photographed with a shooting setting different from each of the reference image and the first comparison image;
Generating a second difference image formed based on a difference between the reference image and the second comparison image; And
Further comprising the step of acquiring feature data of the generated second difference image
How to learn a neural network.
제2항에 있어서,
상기 신경망을 학습하는 단계는
상기 기준 이미지, 상기 제1 차이 이미지 및 상기 제2 차이 이미지 각각의 특징 데이터를 이용하여 상기 신경망을 학습하는 단계를 포함하는
신경망 학습 방법.
The method of claim 2,
The step of learning the neural network
And learning the neural network using feature data of each of the reference image, the first difference image, and the second difference image.
How to learn a neural network.
제2항에 있어서,
상기 제1 비교 이미지와 상기 기준 이미지 간의 상기 피사체에 대한 깊이 차이는 상기 제2 비교 이미지와 상기 기준 이미지 간의 상기 피사체에 대한 깊이 차이와 동일한,
신경망 학습 방법.
The method of claim 2,
The difference in depth with respect to the subject between the first comparison image and the reference image is equal to the difference in depth with respect to the subject between the second comparison image and the reference image,
How to learn a neural network.
제2항에 있어서,
상기 제1 비교 이미지와 상기 기준 이미지 간의 상기 피사체에 대한 깊이 차이는 상기 제2 비교 이미지와 상기 기준 이미지 간의 상기 피사체에 대한 깊이 차이와 다른,
신경망 학습 방법.
The method of claim 2,
The difference in depth with respect to the subject between the first comparison image and the reference image is different from the difference in depth with respect to the subject between the second comparison image and the reference image,
How to learn a neural network.
제1항에 있어서,
상기 기준 이미지 및 상기 비교 이미지는 상기 피사체에 대한 3D 이미지를 구성하는 복수의 이미지에 포함되는
신경망 학습 방법.
The method of claim 1,
The reference image and the comparison image are included in a plurality of images constituting the 3D image of the subject.
How to learn a neural network.
제6항에 있어서,
상기 3D 이미지는
CT(Computerized tomography) 이미지, DBT(Digital breast tomosynthesis) 이미지 중 적어도 하나를 포함하는
신경망 학습 방법.
The method of claim 6,
The 3D image is
Comprising at least one of a computerized tomography (CT) image and a digital breast tomosynthesis (DBT) image
How to learn a neural network.
제1항에 있어서,
상기 촬영 설정은
상기 피사체에 대한 촬영 각도, 촬영 거리, 깊이 초점 중 적어도 하나를 포함하는
신경망 학습 방법.
The method of claim 1,
The above shooting settings are
Including at least one of a shooting angle, a shooting distance, and a depth focus for the subject
How to learn a neural network.
제8항에 있어서,
상기 피사체는
신체 일부를 포함하고,
상기 촬영 설정은
상기 신체 일부에 대한 촬영 각도, 촬영 거리, 깊이 초점 중 적어도 하나를 포함하는
신경망 학습 방법.
The method of claim 8,
The subject is
Including body parts,
The above shooting settings are
Including at least one of a photographing angle, a photographing distance, and a depth focus for the body part
How to learn a neural network.
컴퓨팅장치에 의해 수행되는 신경망 학습 방법에 있어서,
피사체에 대해 촬영된 기준 이미지 및 상기 피사체에 대해 상기 기준 이미지와는 다른 촬영 설정으로 촬영된 복수의 비교 이미지를 얻는 단계;
상기 기준 이미지와 상기 복수의 비교 이미지 각각 간의 차이를 기초로 형성된 복수의 차이 이미지를 생성하는 단계;
상기 기준 이미지 및 상기 복수의 차이 이미지 각각의 특징 데이터를 획득하는 단계; 및
상기 기준 이미지의 특징 데이터 및 상기 복수의 차이 이미지 각각의 특징 데이터를 이용하여 특정 태스크 결과를 출력하는 신경망을 학습하는 단계를 포함하는
신경망 학습 방법.
In the neural network learning method performed by a computing device,
Obtaining a reference image photographed with respect to a subject and a plurality of comparison images photographed with a photographing setting different from that of the reference image with respect to the subject;
Generating a plurality of difference images formed based on differences between the reference image and each of the plurality of comparison images;
Acquiring feature data of each of the reference image and the plurality of difference images; And
And learning a neural network that outputs a specific task result using feature data of the reference image and feature data of each of the plurality of difference images.
How to learn a neural network.
하나 이상의 인스트럭션들(instructions)을 저장하는 메모리; 및
상기 저장된 하나 이상의 인스트럭션들을 실행함으로써, 피사체에 대해 촬영된 기준 이미지 및 상기 피사체에 대해 상기 기준 이미지와는 다른 촬영 설정으로 촬영된 제1 비교 이미지를 얻고,
상기 기준 이미지와 상기 제1 비교 이미지 간의 차이를 기초로 형성된 제1 차이 이미지를 생성하고,
상기 기준 이미지 및 상기 제1 차이 이미지 각각의 특징 데이터를 획득하고,
상기 기준 이미지의 특징 데이터 및 상기 제1 차이 이미지의 특징 데이터를 이용하여 특정 태스크 결과를 출력하는 신경망을 학습시키는 프로세서를 포함하는
기계 학습 장치.
A memory that stores one or more instructions; And
By executing the stored one or more instructions, a reference image photographed for a subject and a first comparison image photographed with a photographing setting different from the reference image for the subject are obtained,
Generating a first difference image formed based on a difference between the reference image and the first comparison image,
Acquiring feature data of each of the reference image and the first difference image,
And a processor that trains a neural network to output a specific task result by using the feature data of the reference image and the feature data of the first difference image.
Machine learning device.
제11항에 있어서,
상기 프로세서는
상기 피사체에 대해, 상기 기준 이미지 및 상기 제1 비교 이미지 각각과는 다른 촬영 설정으로 촬영된 제2 비교 이미지를 얻고,
상기 기준 이미지와 상기 제2 비교 이미지 간의 차이를 기초로 형성된 제2 차이 이미지를 생성하고,
상기 생성된 제2 차이 이미지의 특징 데이터를 획득하는
기계 학습 장치.
The method of claim 11,
The processor is
For the subject, a second comparison image taken with a shooting setting different from each of the reference image and the first comparison image is obtained,
Generating a second difference image formed based on the difference between the reference image and the second comparison image,
Obtaining feature data of the generated second difference image
Machine learning device.
제12항에 있어서,
상기 프로세서는
상기 기준 이미지, 상기 제1 차이 이미지 및 상기 제2 차이 이미지 각각의 특징 데이터를 이용하여 상기 신경망을 학습시키는
기계 학습 장치.
The method of claim 12,
The processor is
Learning the neural network using feature data of each of the reference image, the first difference image, and the second difference image
Machine learning device.
제12항에 있어서,
상기 제1 비교 이미지와 상기 기준 이미지 간의 상기 피사체에 대한 깊이 차이는 상기 제2 비교 이미지와 상기 기준 이미지 간의 상기 피사체에 대한 깊이 차이와 동일한
기계 학습 장치.
The method of claim 12,
The difference in depth with respect to the subject between the first comparison image and the reference image is equal to the difference in depth with respect to the subject between the second comparison image and the reference image.
Machine learning device.
제12항에 있어서,
상기 제1 비교 이미지와 상기 기준 이미지 간의 상기 피사체에 대한 깊이 차이는 상기 제2 비교 이미지와 상기 기준 이미지 간의 상기 피사체에 대한 깊이 차이와 다른,
기계 학습 장치.
The method of claim 12,
The difference in depth with respect to the subject between the first comparison image and the reference image is different from the difference in depth with respect to the subject between the second comparison image and the reference image,
Machine learning device.
제11항에 있어서,
상기 기준 이미지 및 상기 비교 이미지는 상기 피사체에 대한 3D 이미지를 구성하는 복수의 이미지에 포함되는
기계 학습 장치.
The method of claim 11,
The reference image and the comparison image are included in a plurality of images constituting the 3D image of the subject.
Machine learning device.
제16항에 있어서,
상기 3D 이미지는
CT(Computerized tomography) 이미지, DBT(Digital breast tomosynthesis) 이미지 중 적어도 하나를 포함하는
기계 학습 장치.
The method of claim 16,
The 3D image is
Comprising at least one of a computerized tomography (CT) image and a digital breast tomosynthesis (DBT) image
Machine learning device.
제11항에 있어서,
상기 촬영 설정은
상기 피사체에 대한 촬영 각도, 촬영 거리, 깊이 초점 중 적어도 하나를 포함하는
기계 학습 장치.
The method of claim 11,
The above shooting settings are
Including at least one of a shooting angle, a shooting distance, and a depth focus for the subject
Machine learning device.
제18항에 있어서,
상기 피사체는
신체 일부를 포함하고,
상기 촬영 설정은
상기 신체 일부에 대한 촬영 각도, 촬영 거리, 깊이 초점 중 적어도 하나를 포함하는
기계 학습 장치.
The method of claim 18,
The subject is
Including body parts,
The above shooting settings are
Including at least one of a photographing angle, a photographing distance, and a depth focus for the body part
Machine learning device.
하나 이상의 인스트럭션들(instructions)을 저장하는 메모리; 및
상기 저장된 하나 이상의 인스트럭션들을 실행함으로써, 피사체에 대해 촬영된 기준 이미지 및 상기 피사체에 대해 상기 기준 이미지와는 다른 촬영 설정으로 촬영된 복수의 비교 이미지를 얻고,
상기 기준 이미지와 상기 복수의 비교 이미지 각각 간의 차이를 기초로 형성된 복수의 차이 이미지를 생성하고,
상기 기준 이미지 및 상기 복수의 차이 이미지 각각의 특징 데이터를 획득하고,
상기 기준 이미지의 특징 데이터 및 상기 복수의 차이 이미지 각각의 특징 데이터를 이용하여 특정 태스크 결과를 출력하는 신경망을 학습시키는 프로세서를 포함하는
기계 학습 장치.
A memory that stores one or more instructions; And
By executing the stored one or more instructions, a reference image photographed for a subject and a plurality of comparison images photographed with a photographing setting different from the reference image for the subject are obtained,
Generating a plurality of difference images formed based on differences between the reference image and each of the plurality of comparison images,
Acquiring feature data of each of the reference image and the plurality of difference images,
And a processor for learning a neural network that outputs a specific task result by using feature data of the reference image and feature data of each of the plurality of difference images.
Machine learning device.
KR1020190144442A 2019-11-12 2019-11-12 Neural network training method for utilizing differences between a plurality of images, and method thereof Active KR102167655B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190144442A KR102167655B1 (en) 2019-11-12 2019-11-12 Neural network training method for utilizing differences between a plurality of images, and method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190144442A KR102167655B1 (en) 2019-11-12 2019-11-12 Neural network training method for utilizing differences between a plurality of images, and method thereof

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020190038145A Division KR102046134B1 (en) 2019-04-02 2019-04-02 Neural network training method for utilizing differences between a plurality of images, and method thereof

Publications (2)

Publication Number Publication Date
KR20200116842A KR20200116842A (en) 2020-10-13
KR102167655B1 true KR102167655B1 (en) 2020-10-19

Family

ID=72885218

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190144442A Active KR102167655B1 (en) 2019-11-12 2019-11-12 Neural network training method for utilizing differences between a plurality of images, and method thereof

Country Status (1)

Country Link
KR (1) KR102167655B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220161597A (en) 2021-05-27 2022-12-07 자이메드 주식회사 Apparatus and method for predicting position informaiton according to movement of tool

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102571740B1 (en) 2021-04-15 2023-08-29 주식회사 스카이시스 Method for work management of trailer

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101854071B1 (en) 2017-01-13 2018-05-03 고려대학교 산학협력단 Method of generating image of interest region using deep learning and apparatus thereof
US20190080450A1 (en) 2017-09-08 2019-03-14 International Business Machines Corporation Tissue Staining Quality Determination

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101396308B1 (en) 2013-05-14 2014-05-27 인하대학교 산학협력단 A method for extracting morphological features for grading pancreatic ductal adenocarcinomas

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101854071B1 (en) 2017-01-13 2018-05-03 고려대학교 산학협력단 Method of generating image of interest region using deep learning and apparatus thereof
US20190080450A1 (en) 2017-09-08 2019-03-14 International Business Machines Corporation Tissue Staining Quality Determination

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
Carneiro, Gustavo, Jacinto Nascimento, and Andrew P. Bradley. Automated analysis of unregistered multi-view mammograms with deep learning. IEEE transactions on medical imaging 36.11. 2017.
Choi, Sungil, et al. Learning Descriptor, Confidence, and Depth Estimation in Multi-view Stereo. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition Workshops. 2018.6.*
Geras, Krzysztof J., et al. High-resolution breast cancer screening with multi-view deep convolutional neural networks. arXiv preprint arXiv:1703.07047. 2017.
Nie, D., Lu, J., Zhang, H. et al. Multi-Channel 3D Deep Feature Learning for Survival Time Prediction of Brain Tumor Patients Using Multi-Modal Neuroimages. Sci Rep 9, 1103. 2019.1.

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220161597A (en) 2021-05-27 2022-12-07 자이메드 주식회사 Apparatus and method for predicting position informaiton according to movement of tool

Also Published As

Publication number Publication date
KR20200116842A (en) 2020-10-13

Similar Documents

Publication Publication Date Title
KR102046134B1 (en) Neural network training method for utilizing differences between a plurality of images, and method thereof
KR102560911B1 (en) Image processing apparatus, image processing method, and storage medium
EP3755204B1 (en) Eye tracking method and system
JP6657132B2 (en) Image classification device, method and program
US20200297237A1 (en) Multi-Task Progressive Networks for Patient Modeling for Medical Scans
JP6525912B2 (en) Image classification device, method and program
US10140726B2 (en) Apparatus and method for estimating gazed position of person
CN110276411A (en) Image classification method, device, equipment, storage medium and medical treatment electronic equipment
US10672145B2 (en) Device for extracting three-dimensional information from X-ray images of an object, method for calibrating said device, and method for generating said X-ray images
US10949698B2 (en) Image processing apparatus, image processing system, image processing method, and storage medium
EP3065072A1 (en) Apparatus and method for providing reliability for computer aided diagnosis
KR102167655B1 (en) Neural network training method for utilizing differences between a plurality of images, and method thereof
KR102680579B1 (en) Presence or absence of lesion prediction method using 2 dimensional images extracted from 3 dimensional computed tomography image and analysis apparatus
CN110895812A (en) CT image detection method and device, storage medium and electronic equipment
CN113380385A (en) Image display method, device, equipment and storage medium
WO2019030348A1 (en) X-ray image processing method and system and computer storage medium
JPWO2019155628A1 (en) Image processing equipment, image processing method and image processing program
KR102593247B1 (en) Geometric calibration method and apparatus of computer tomography
JP4416823B2 (en) Image processing apparatus, image processing method, and computer program
US20180268547A1 (en) Image processing apparatus, control method of image processing apparatus, and storage medium
CN111429406A (en) Method and device for detecting breast X-ray image lesion by combining multi-view reasoning
US10373350B2 (en) Apparatus and method for CT data reconstruction based on motion compensation
KR102593539B1 (en) Apparauts, system, method and program for deciphering tomography image of common bile duct stone using artificial intelligence
CN115187505A (en) Processing multiple 2-D projection images using neural network algorithms
JP2016171961A (en) Image processing device, image processing method, and program

Legal Events

Date Code Title Description
PA0107 Divisional application

Comment text: Divisional Application of Patent

Patent event date: 20191112

Patent event code: PA01071R01D

Filing date: 20190402

Application number text: 1020190038145

PA0201 Request for examination
PE0701 Decision of registration

Patent event code: PE07011S01D

Comment text: Decision to Grant Registration

Patent event date: 20200810

GRNT Written decision to grant
PG1501 Laying open of application
PR0701 Registration of establishment

Comment text: Registration of Establishment

Patent event date: 20201013

Patent event code: PR07011E01D

PR1002 Payment of registration fee

Payment date: 20201013

End annual number: 3

Start annual number: 1

PG1601 Publication of registration
PR1001 Payment of annual fee

Payment date: 20230918

Start annual number: 4

End annual number: 4

PR1001 Payment of annual fee

Payment date: 20240919

Start annual number: 5

End annual number: 5