KR102167655B1 - Neural network training method for utilizing differences between a plurality of images, and method thereof - Google Patents
Neural network training method for utilizing differences between a plurality of images, and method thereof Download PDFInfo
- Publication number
- KR102167655B1 KR102167655B1 KR1020190144442A KR20190144442A KR102167655B1 KR 102167655 B1 KR102167655 B1 KR 102167655B1 KR 1020190144442 A KR1020190144442 A KR 1020190144442A KR 20190144442 A KR20190144442 A KR 20190144442A KR 102167655 B1 KR102167655 B1 KR 102167655B1
- Authority
- KR
- South Korea
- Prior art keywords
- image
- neural network
- reference image
- subject
- difference
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 219
- 238000000034 method Methods 0.000 title claims abstract description 72
- 238000010801 machine learning Methods 0.000 claims description 23
- 238000003325 tomography Methods 0.000 claims description 5
- 210000000481 breast Anatomy 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 15
- 230000004927 fusion Effects 0.000 description 14
- 238000013527 convolutional neural network Methods 0.000 description 13
- 238000000605 extraction Methods 0.000 description 13
- 238000004891 communication Methods 0.000 description 6
- 238000004590 computer program Methods 0.000 description 6
- 238000004458 analytical method Methods 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000010191 image analysis Methods 0.000 description 3
- 238000000926 separation method Methods 0.000 description 2
- 206010028980 Neoplasm Diseases 0.000 description 1
- 201000011510 cancer Diseases 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000013075 data extraction Methods 0.000 description 1
- 238000002059 diagnostic imaging Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000007786 learning performance Effects 0.000 description 1
- 230000003902 lesion Effects 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 238000002601 radiography Methods 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G06N3/0454—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
본 발명은 이미지 간 차이에 관한 데이터를 이용하여 이미지의 특징을 추출하는 신경망을 학습시키는 방법 및 그 장치에 대한 기술이 제공된다. 본 발명의 일 실시예에 따른 피사체에 대해 제1 설정으로 촬영된 기준 이미지 및 상기 피사체에 대해 제2 설정으로 촬영된 제1 비교 이미지를 얻는 단계, 상기 기준 이미지를 이용하여 학습된 제1 신경망으로부터, 상기 기준 이미지의 특징 데이터를 얻는 단계, 상기 기준 이미지와 상기 제1 비교 이미지 간 차이에 관한 데이터로 형성된 제1 추출 이미지를 이용하여 학습된 제2 신경망으로부터, 상기 제1 추출 이미지의 특징 데이터를 얻는 단계 및 상기 기준 이미지의 특징 데이터 및 상기 제1 추출 이미지의 특징 데이터를 이용하여 제3 신경망을 학습시키는 단계를 포함한다.The present invention provides a method and apparatus for training a neural network for extracting features of an image by using data on differences between images. Obtaining a reference image photographed with a first setting for a subject and a first comparison image photographed with a second setting for the subject according to an embodiment of the present invention, from a first neural network learned using the reference image , Obtaining feature data of the reference image, Feature data of the first extracted image from a second neural network learned using a first extracted image formed of data about a difference between the reference image and the first comparison image And training a third neural network using the feature data of the reference image and the feature data of the first extracted image.
Description
본 발명은 복수의 이미지 간 차이에 관한 데이터를 이용하여 이미지의 특징을 추출하는 신경망을 학습시키는 방법에 관한 것이다. 보다 자세하게는, 이미지의 특징을 추출하는 신경망을 학습하는 방법에 있어서 복수의 이미지 간 차이에 관한 정보를 포함하는 데이터 및 복수의 이미지를 이용하여 신경망을 학습하는 방법에 관한 것이다.The present invention relates to a method of training a neural network that extracts features of an image using data on differences between a plurality of images. In more detail, in a method of learning a neural network for extracting features of an image, it relates to a method of learning a neural network using data including information on differences between a plurality of images and a plurality of images.
3D 데이터의 특징을 추출하기 위해 통상적으로 3D CNN(Convolutional Neural Networks)이용되나, 상기 3D CNN의 학습을 위해 많은 양의 메모리와 시간이 요구되어 상기 3D CNN의 효용성은 매우 낮다.3D Convolutional Neural Networks (CNNs) are typically used to extract features of 3D data, but a large amount of memory and time are required for learning the 3D CNN, so the utility of the 3D CNN is very low.
3D 데이터의 특징을 추출하는데 소모되는 컴퓨팅 자원을 줄이기 위해 2D CNN 이용하여 상기 3D 데이터의 특징을 추출하는 방법을 고려해볼 수 있다. 하지만, 상기 2D CNN을 이용해 3D 데이터의 특징을 추출하는 경우, 상기 3D 데이터에 관한 모든 정보(예를 들어, 영상 데이터의 시간 또는 3D 객체의 깊이(depth) 등)가 활용될 수 없다.In order to reduce computing resources consumed in extracting the features of 3D data, a method of extracting features of the 3D data may be considered using a 2D CNN. However, when a feature of 3D data is extracted using the 2D CNN, all information about the 3D data (eg, time of image data or depth of 3D object, etc.) cannot be utilized.
본 발명이 해결하고자 하는 기술적 과제는, 적은 비용으로 3D 객체의 특징을 정확히 추출하는 신경망을 학습시키는 방법 및 그 장치 또는 시스템을 제공하는 것이다.The technical problem to be solved by the present invention is to provide a method and apparatus or system for learning a neural network that accurately extracts features of 3D objects at low cost.
본 발명이 해결하고자 하는 다른 기술적 과제는, 복수의 이미지 간 차이에 관한 데이터를 이용하여 이미지의 특징을 추출하는 신경망을 학습시키는 방법 및 그 장치 또는 시스템을 제공하는 것이다.Another technical problem to be solved by the present invention is to provide a method and apparatus or system for learning a neural network for extracting features of an image by using data on differences between a plurality of images.
본 발명의 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명의 기술분야에서의 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The technical problems of the present invention are not limited to the technical problems mentioned above, and other technical problems that are not mentioned will be clearly understood by those skilled in the art from the following description.
상기 기술적 과제를 해결하기 위한, 본 발명의 일 실시예에 따른 신경망 학습 방법은, 피사체에 대해 제1 설정으로 촬영된 기준 이미지 및 상기 피사체에 대해 제2 설정으로 촬영된 제1 비교 이미지를 얻는 단계, 상기 기준 이미지를 이용하여 학습된 제1 신경망으로부터, 상기 기준 이미지의 특징 데이터를 얻는 단계, 상기 기준 이미지와 상기 제1 비교 이미지 간 차이에 관한 데이터로 형성된 제1 추출 이미지를 이용하여 학습된 제2 신경망으로부터, 상기 제1 추출 이미지의 특징 데이터를 얻는 단계 및 상기 기준 이미지의 특징 데이터 및 상기 제1 추출 이미지의 특징 데이터를 이용하여 제3 신경망을 학습시키는 단계를 포함할 수 있다.In order to solve the above technical problem, a method for learning a neural network according to an embodiment of the present invention includes: obtaining a reference image taken with a first setting for a subject and a first comparison image taken with a second setting for the subject , Obtaining feature data of the reference image from a first neural network learned using the reference image, the first extracted image formed of data on the difference between the reference image and the
상기 기술적 과제를 해결하기 위한, 본 발명의 다른 실시예에 따른 신경망 학습 컴퓨터 프로그램은 피사체에 대해 제1 설정으로 촬영된 기준 이미지 및 상기 피사체에 대해 제2 설정으로 촬영된 제1 비교 이미지를 얻는 단계, 상기 기준 이미지를 이용하여 학습된 제1 신경망으로부터, 상기 기준 이미지의 특징 데이터를 얻는 단계, 상기 기준 이미지와 상기 제1 비교 이미지 간 차이에 관한 데이터로 형성된 제1 추출 이미지를 이용하여 학습된 제2 신경망으로부터, 상기 제1 추출 이미지의 특징 데이터를 얻는 단계 및 상기 기준 이미지의 특징 데이터 및 상기 제1 추출 이미지의 특징 데이터를 이용하여 제3 신경망을 학습시키는 단계를 실행시키기 위하여, 컴퓨터로 읽을 수 있는 기록 매체에 저장될 수 있다.In order to solve the above technical problem, a neural network learning computer program according to another embodiment of the present invention includes: obtaining a reference image photographed with a first setting for a subject and a first comparison image photographed with a second setting for the subject , Obtaining feature data of the reference image from a first neural network learned using the reference image, the first extracted image formed of data on the difference between the reference image and the
상기 기술적 과제를 해결하기 위한, 본 발명의 또 다른 실시예에 따른 기계 학습 장치는 하나 이상의 인스트럭션들(instructions)을 저장하는 메모리 및 상기 저장된 하나 이상의 인스트럭션들을 실행함으로써 피사체에 대해 제1 설정으로 촬영된 기준 이미지 및 상기 피사체에 대해 제2 설정으로 촬영된 제1 비교 이미지를 얻고, 상기 기준 이미지를 이용하여 학습된 제1 신경망으로부터, 상기 기준 이미지의 특징 데이터를 얻고, 상기 기준 이미지와 상기 제1 비교 이미지 간 차이에 관한 데이터로 형성된 제1 추출 이미지를 이용하여 학습된 제2 신경망으로부터, 상기 제1 추출 이미지의 특징 데이터를 얻고, 상기 기준 이미지의 특징 데이터 및 상기 제1 추출 이미지의 특징 데이터를 이용하여 제3 신경망을 학습시키는 프로세서를 포함할 수 있다.In order to solve the above technical problem, a machine learning apparatus according to another embodiment of the present invention includes a memory for storing one or more instructions and a first setting for a subject by executing the stored one or more instructions. Obtaining a reference image and a first comparison image taken with a second setting of the subject, obtaining feature data of the reference image from a first neural network learned using the reference image, and comparing the reference image with the first Obtaining feature data of the first extracted image from a second neural network learned using a first extracted image formed of data about differences between images, and using feature data of the reference image and feature data of the first extracted image Thus, a processor for training the third neural network may be included.
도 1은 본 발명의 일 실시예에 따른 하나의 기준 이미지와 하나의 추출 이미지를 이용한 신경망 학습 방법에 대한 순서도이다.
도 2는 본 발명의 다른 실시예에 따른 하나의 기준 이미지와 복수의 추출 이미지를 이용한 신경망 학습 방법에 대한 순서도이다.
도 3은 본 발명의 또 다른 실시예에 따른 피사체의 이미지를 이용한 신경망 학습 방법에서 다양한 설정으로 촬영된 피사체의 이미지를 얻는 과정을 상세히 설명하기 위한 개념도이다.
도 4는 본 발명의 또 다른 실시예에 따른 피사체의 이미지에 대한 깊이 정보와 상기 피사체의 이미지를 이용한 신경망 학습 방법을 설명하기 위한 개념도이다.
도 5는 본 발명의 또 다른 실시예에 따른 기준 이미지와 비교 이미지를 이용한 신경망 학습 방법에서 기준 이미지와 비교 이미지를 지정하는 방법을 설명하기 위한 개념도이다.
도 6은 본 발명의 또 다른 실시예에 따른 기준 이미지와 추출 이미지를 이용한 신경망 학습 방법에서 기준 이미지와 비교 이미지를 이용하여 추출 이미지를 얻는 방법을 설명하기 위한 개념도이다.
도 7은 본 발명의 또 다른 실시예에 따른 기준 이미지와 하나의 추출 이미지를 이용한 신경망 학습 방법을 설명하기 위한 도면이다.
도 8은 본 발명의 또 다른 실시예에 따른 하나의 기준 이미지의 특징 데이터와 하나의 추출 이미지의 특징 데이터를 이용하여 피사체의 특징에 관한 데이터를 출력하는 신경망을 포함하는 신경망 학습 방법을 설명하기 위한 도면이다.
도 9는 본 발명의 또 다른 실시예에 따른 기준 이미지의 특징 데이터와 추출 이미지의 특징 데이터를 채널 축을 기준으로 연결한 데이터를 이용하여 피사체 특징을 추출하는 신경망 학습 방법을 설명하기 위한 도면이다.
도 10은 본 발명의 또 다른 실시예에 따른 기준 이미지의 특징 데이터와 추출 이미지의 특징 데이터를 융합(fusion)한 데이터를 이용하여 피사체의 특징을 추출하는 신경망 학습 방법을 설명하기 위한 도면이다.
도 11은 본 발명의 또 다른 실시예에 따른 하나의 기준 이미지와 복수의 추출 이미지를 이용한 피사체 특징 추출 신경망 학습 방법을 설명하기 위한 도면이다.
도 12는 본 발명의 또 다른 실시예에 따른 기준 이미지, 비교 이미지 및 추출 이미지를 이용한 피사체 특징 추출 신경망 학습 방법을 설명하기 위한 도면이다.
도 13은 본 발명의 또 다른 실시예에 따른 기준 이미지의 특징 데이터와 복수의 비교 이미지의 특징 데이터간 차이를 기초로 형성된 추출 데이터를 이용한 피사체 특징 추출 신경망 학습 방법을 설명하기 위한 도면이다.
도 14는 본 발명의 또 다른 실시예에 따른 신경망 학습 장치의 블록도이다.
도 15는 본 발명의 또 다른 실시예에 따른 신경망 학습 장치의 하드웨어 구성도이다.
도 16은 본 발명의 또 다른 실시예에 따른 신경망 학습 시스템의 구성도이다.1 is a flowchart illustrating a neural network training method using one reference image and one extracted image according to an embodiment of the present invention.
2 is a flowchart of a neural network training method using one reference image and a plurality of extracted images according to another embodiment of the present invention.
3 is a conceptual diagram for explaining in detail a process of obtaining an image of a subject photographed with various settings in a neural network learning method using an image of a subject according to another embodiment of the present invention.
4 is a conceptual diagram illustrating a method of learning a neural network using depth information on an image of a subject and an image of the subject according to another embodiment of the present invention.
FIG. 5 is a conceptual diagram illustrating a method of designating a reference image and a comparison image in a neural network learning method using a reference image and a comparison image according to another embodiment of the present invention.
6 is a conceptual diagram illustrating a method of obtaining an extracted image using a reference image and a comparison image in a neural network training method using a reference image and an extracted image according to another embodiment of the present invention.
7 is a diagram for explaining a neural network training method using a reference image and one extracted image according to another embodiment of the present invention.
FIG. 8 is a diagram illustrating a neural network learning method including a neural network for outputting data on a feature of a subject by using feature data of one reference image and feature data of one extracted image according to another embodiment of the present invention. It is a drawing.
9 is a view for explaining a neural network training method for extracting a subject feature using data obtained by connecting feature data of a reference image and feature data of an extracted image according to another embodiment of the present invention.
10 is a diagram for explaining a neural network learning method for extracting a feature of a subject using data obtained by fusion of feature data of a reference image and feature data of an extracted image according to another embodiment of the present invention.
11 is a diagram illustrating a method of learning a neural network for extracting object features using one reference image and a plurality of extracted images according to another embodiment of the present invention.
12 is a diagram illustrating a method of learning a neural network for extracting object features using a reference image, a comparison image, and an extracted image according to another embodiment of the present invention.
13 is a diagram for explaining a method of learning a subject feature extraction neural network using extraction data formed based on a difference between feature data of a reference image and feature data of a plurality of comparison images according to another embodiment of the present invention.
14 is a block diagram of an apparatus for learning a neural network according to another embodiment of the present invention.
15 is a hardware configuration diagram of a neural network learning apparatus according to another embodiment of the present invention.
16 is a block diagram of a neural network learning system according to another embodiment of the present invention.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예들을 상세히 설명한다. 본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명의 기술적 사상은 이하의 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 이하의 실시예들은 본 발명의 기술적 사상을 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명의 기술적 사상은 청구항의 범주에 의해 정의될 뿐이다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings. Advantages and features of the present invention, and a method of achieving them will become apparent with reference to the embodiments described below in detail together with the accompanying drawings. However, the technical idea of the present invention is not limited to the following embodiments, but may be implemented in various different forms, and only the following embodiments complete the technical idea of the present invention, and in the technical field to which the present invention pertains. It is provided to completely inform the scope of the present invention to those of ordinary skill in the art, and the technical idea of the present invention is only defined by the scope of the claims.
각 도면의 구성요소들에 참조부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한, 본 발명의 실시예들을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 개시의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.In adding reference numerals to elements of each drawing, it should be noted that the same elements are assigned the same numerals as possible even if they are indicated on different drawings. In addition, in describing embodiments of the present invention, when it is determined that a detailed description of a related known configuration or function may obscure the subject matter of the present disclosure, a detailed description thereof will be omitted.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있다. 또 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다. 본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 개시를 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다.Unless otherwise defined, all terms (including technical and scientific terms) used in the present specification may be used as meanings that can be commonly understood by those of ordinary skill in the art to which this disclosure belongs. In addition, terms defined in a commonly used dictionary are not interpreted ideally or excessively unless explicitly defined specifically. The terms used in the present specification are for describing exemplary embodiments and are not intended to limit the present disclosure. In this specification, the singular form also includes the plural form unless specifically stated in the phrase.
또한, 본 개시의 구성 요소를 설명하는 데 있어서, 제1, 제2 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등이 한정되지 않는다.Also, in describing the constituent elements of the present disclosure, terms such as first and second may be used. These terms are only used to distinguish the component from other components, and the nature, order, or order of the component is not limited by the term.
이하, 도 1을 참조하여 본 발명의 일 실시예에 따른 신경망 학습 방법에 대하여 설명한다. 본 실시예에 따른 신경망 학습 방법은 피사체의 특징을 추출하기 위해, 상기 피사체를 촬영한 복수의 이미지를 이용한다. 즉, 상기 피사체를 촬영한 하나의 기준 이미지와, 하나의 추출 이미지를 이용하여 피사체의 특징을 추출한다. 이 때, 상기 추출 이미지는 상기 기준 이미지의 촬영 설정과 상이한 촬영 설정에 따라 상기 피사체를 촬영한 비교 이미지와, 상기 기준 이미지 간의 차이를 기초로 형성된 이미지이다.Hereinafter, a neural network learning method according to an embodiment of the present invention will be described with reference to FIG. 1. The neural network learning method according to the present embodiment uses a plurality of images of the subject in order to extract features of the subject. That is, the feature of the subject is extracted using one reference image photographing the subject and one extracted image. In this case, the extracted image is an image formed based on a difference between the reference image and a comparison image photographing the subject according to a photographing setting different from that of the reference image.
본 실시예에 따른 신경망 학습 방법은 컴퓨팅 장치에 의하여 수행될 수 있다. 상기 컴퓨팅 장치는 동일한 피사체를 서로 다른 설정으로 촬영한 복수의 이미지 데이터셋을 학습 데이터로서 제공받는 장치로서, 상기 신경망 학습 방법의 수행 결과로 학습된 신경망을 정의하는 데이터를 생성할 수 있을 것이다. 이하, 본 실시예에 따른 방법에 속한 각각의 동작을 설명함에 있어서, 그 주체에 대한 기재가 생략된 경우에는 해당 동작의 주체는 상기 컴퓨팅 장치인 것으로 이해될 수 있을 것이다.The neural network learning method according to the present embodiment may be performed by a computing device. The computing device is a device that receives a plurality of image datasets photographed with different settings of the same subject as training data, and may generate data defining a learned neural network as a result of performing the neural network learning method. Hereinafter, in describing each operation belonging to the method according to the present embodiment, when the description of the subject is omitted, it may be understood that the subject of the operation is the computing device.
단계 S101에서, 촬영 대상인 피사체에 관한 기준 이미지 및 제1 비교 이미지가 획득된다. 상기 기준 이미지 및 상기 제1 비교 이미지 모두 동일한 피사체를 촬영한 결과로 얻어진 데이터이나, 상기 기준 이미지와 상기 제1 비교 이미지는 촬영에 사용된 '설정'이 서로 다른 점에서 구분된다. 이하, 상기 '설정'과 관련하여 설명한다.In step S101, a reference image and a first comparison image of a subject to be photographed are obtained. Both the reference image and the first comparison image are data obtained as a result of photographing the same subject, but the reference image and the first comparison image are distinguished in that'settings' used for photographing are different from each other. Hereinafter, it will be described in connection with the'setting'.
촬영과 관련된 상기 설정이란, 촬영 장치의 동작 방식을 정의하는 설정 또는, 촬영 위치 또는 촬영 각도 등 상기 피사체에 대한 상대적 위치 지정 등 다양한 촬영 환경을 의미할 수 있다. 예를 들어, 촬영 장치의 동작 방식은 방사선 촬영 방식, 파노라마 촬영 방식 및 단층 촬영 방식 등 일 수 있고, 촬영 환경은 카메라의 각도, 피사체와 카메라의 거리, 노출 값, 조명 비율, 초점 거리, 화각, 방사선 촬영에서의 방사선량 등 동일한 피사체에 대한 촬영에서 서로 다른 이미지를 획득하기 위한 다양한 설정을 포함할 수 있다.The setting related to photographing may mean various photographing environments, such as a setting defining an operation method of the photographing device or designating a relative position with respect to the subject such as a photographing position or a photographing angle. For example, the operation method of the photographing apparatus may be a radiographic method, a panorama photographing method, a tomography method, etc., and the photographing environment may be an angle of a camera, a distance between the subject and the camera, an exposure value, an illumination ratio, a focal length, an angle of view, Various settings for acquiring different images in imaging for the same subject, such as radiation dose in radiography may be included.
상기 기준 이미지 및 상기 제1 비교 이미지는 3D 이미지를 생성하기 위해 구성된 2D 이미지의 집합에 속하는 이미지일 수 있다. 즉, 상기 기준 이미지 및 상기 제1 비교 이미지는 3D 이미지 자체가 아닌 상기 3D 이미지를 생성하기 위한 2D 이미지일 수 있는 것이다. 상기 3D 이미지는 의료 영상 분야에서 사용되는 CT(Computerized tomography) 이미지, DBT(Digital breast tomosynthesis) 이미지 및 멀티 레이어 치아 파노라마 이미지일 수 있다. 상기 기준 이미지 및 상기 제1 비교 이미지가 피사체의 3D 이미지를 생성하기 위해 구성된 2D 이미지의 집합에 속하는 것일 때, 상기 기준 이미지와 상기 제1 비교 이미지는 서로 다른 각도로 피사체를 촬영한 것이거나, 동일한 촬영 방향을 기준으로 피사체의 서로 다른 깊이에 초점이 맞춰진 것일 수 있다.The reference image and the first comparison image may be images belonging to a set of 2D images configured to generate a 3D image. That is, the reference image and the first comparison image may be a 2D image for generating the 3D image, not the 3D image itself. The 3D image may be a computerized tomography (CT) image, a digital breast tomosynthesis (DBT) image, and a multi-layer tooth panorama image used in the medical imaging field. When the reference image and the first comparison image belong to a set of 2D images configured to generate a 3D image of a subject, the reference image and the first comparison image are photographed at different angles or the same The focus may be at different depths of the subject based on the photographing direction.
단계 S103에서, 상기 획득된 기준 이미지가 제1 신경망에 입력된다.In step S103, the acquired reference image is input to the first neural network.
여기서 제1 신경망은 상기 제1 신경망에 입력된 이미지 데이터에서 추출된 특징 데이터(feature data)를 출력하는 신경망이다. 예를 들어, 상기 제1 신경망은 ResNet, VGGNet 또는 AlexNet 등 다양한 2D CNN(Convolutional Neural Network) 구조의 신경망 중 하나일 수 있다.Here, the first neural network is a neural network that outputs feature data extracted from image data input to the first neural network. For example, the first neural network may be one of a variety of 2D Convolutional Neural Network (CNN) neural networks such as ResNet, VGGNet, or AlexNet.
단계 S105에서, 상기 기준 이미지 및 상기 제1 비교 이미지를 이용하여 형성된 제1 추출 이미지가 제2 신경망에 입력될 수 있다.In step S105, a first extracted image formed by using the reference image and the first comparison image may be input to a second neural network.
제1 추출 이미지는 상기 기준 이미지와 상기 제1 비교 이미지 간 차이에 관한 정보를 기초로 형성된 데이터 기반의 이미지일 수 있다. 예를 들어, 상기 제1 추출 이미지는 상기 기준 이미지의 픽셀 값과 상기 제1 비교 이미지의 픽셀 값의 차이를 기초로 형성된 이미지일 수 있다. 즉, 상기 제1 추출 이미지의 제1 좌표에서의 픽셀 값은 상기 기준 이미지의 제1 좌표 픽셀 값에서 상기 제1 비교 이미지의 제1 좌표 픽셀 값을 뺀 값일 수 있다.The first extracted image may be a data-based image formed based on information about a difference between the reference image and the first comparison image. For example, the first extracted image may be an image formed based on a difference between a pixel value of the reference image and a pixel value of the first comparison image. That is, the pixel value at the first coordinate of the first extracted image may be a value obtained by subtracting the first coordinate pixel value of the first comparison image from the first coordinate pixel value of the reference image.
또한 본 발명의 다른 실시예에 따라 상기 기준 이미지의 깊이 정보 및 제1 비교 이미지의 깊이 정보가 제2 신경망에 더 입력될 수 있다. 상기 제2 신경망은 상기 제2 신경망에 입력된 이미지 데이터에서 추출된 특징 데이터를 출력하는 신경망이다.Also, according to another embodiment of the present invention, depth information of the reference image and depth information of the first comparison image may be further input to the second neural network. The second neural network is a neural network that outputs feature data extracted from image data input to the second neural network.
일 실시예에서, 상기 제1 신경망과 상기 제2 신경망은 동일한 세팅으로 구성된 것일 수 있다. 즉, 상기 제1 신경망과 상기 제2 신경망은 레이어 개수, 각 레이어의 노드 개수, 인접 레이어의 노드들 사이의 연결 설정 등 신경망 구성과 관련된 세팅이 완전히 동일한 것일 수 있다. 또한, 상기 제1 신경망과 상기 제2 신경망이 2D CNN인 경우, 상기 제1 신경망과 상기 제2 신경망에 사용되는 필터의 종류 및 개수와, 각각의 필터의 적용 순서 역시 동일할 수 있다.In an embodiment, the first neural network and the second neural network may be configured with the same settings. That is, the first neural network and the second neural network may have completely identical settings related to the neural network configuration, such as the number of layers, the number of nodes of each layer, and connection settings between nodes of adjacent layers. In addition, when the first neural network and the second neural network are 2D CNNs, the type and number of filters used in the first neural network and the second neural network, and the order of applying each filter may also be the same.
다른 실시예에서, 상기 제1 신경망에 입력되는 기준 이미지는 피사체의 특정 깊이에 상응하는 온전한 이미지인 반면, 상기 제2 신경망에 입력되는 제1 추출 이미지는 기준 이미지와 제1 비교 이미지 사이의 차이 값에 관한 정보만을 담고 있는 이미지인 점을 반영하여, 상기 제1 신경망과 상기 제2 신경망은 적어도 일부 세팅이 서로 상이할 수도 있을 것이다.In another embodiment, the reference image input to the first neural network is a complete image corresponding to a specific depth of the subject, whereas the first extracted image input to the second neural network is a difference value between the reference image and the first comparison image In consideration of the fact that the image is an image containing only information about the first neural network and the second neural network, at least some settings may be different from each other.
제1 추출 이미지는 기준 이미지 및 제1 비교 이미지 간 차이에 관한 정보만 포함한다. 따라서, 제2 신경망에 입력되는 정보가 제1 신경망 대비 상대적으로 빈약한 점을 보완하기 위해, 상기 제1 비교 이미지의 깊이와 기준 이미지의 깊이 간 차이에 관한 정보가 상기 제2 신경망에 더 입력될 수 있다. 이를 통해 제1 추출 이미지만 제1 신경망의 입력 데이터로 이용되는 경우보다 3차원 공간 상에 위치하는 피사체의 특징이 더 정확하게 파악될 수 있다.The first extracted image includes only information about a difference between the reference image and the first comparison image. Therefore, in order to compensate for the fact that the information input to the second neural network is relatively weak compared to the first neural network, information on the difference between the depth of the first comparison image and the depth of the reference image is further inputted to the second neural network. I can. Through this, characteristics of a subject located in a three-dimensional space may be more accurately identified than when only the first extracted image is used as input data of the first neural network.
깊이 정보는 3D 형태인 피사체가 2D 이미지로 촬영되는 경우 너비와 높이 외에 소멸되는 정보를 의미할 수 있다. 예를 들어, 상기 깊이 정보는 촬영 지점에서 피사체의 각 영역까지의 거리에 대한 정보를 의미할 수 있다.Depth information may mean information that disappears in addition to width and height when a 3D object is captured as a 2D image. For example, the depth information may mean information on a distance from a photographing point to each area of a subject.
또한, 촬영 방향에 따른 깊이를 달리하는 복수의 슬라이스 이미지들이 신경망의 입력 이미지인 경우, 상기 깊이 정보는 상기 각각의 슬라이스 이미지의 일련 번호의 형태로 표현될 수도 있을 것이다. 예를 들어, 신체를 전방에서 촬영하되, 초점 거리를 달리하여 20장의 슬라이스 이미지들이 촬영되고, 최전방의 슬라이스 이미지로부터 후방의 슬라이스 이미지를 향하여 연속적인 일련번호가 부여된 경우, 상기 깊이 정보는 상기 일련 번호를 의미할 수도 있을 것이다.In addition, when a plurality of slice images having different depths according to the photographing direction are input images of a neural network, the depth information may be expressed in the form of a serial number of each slice image. For example, when a body is photographed from the front, but 20 slice images are photographed with different focal lengths, and a continuous serial number is assigned from the frontmost slice image toward the rear slice image, the depth information is It could also mean a number.
단계 S107에서, 상기 제1 신경망의 출력 데이터 및 상기 제2 신경망의 출력 데이터가 제3 신경망에 입력됨으로써, 상기 제3 신경망이 학습될 수 있다.In step S107, the third neural network may be trained by inputting the output data of the first neural network and the output data of the second neural network to the third neural network.
상기 제1 신경망의 출력 데이터는 기준 이미지의 특징 데이터이고, 상기 제2 신경망의 출력 데이터는 상기 제1 추출 이미지의 특징 데이터이다. 예를 들어 제1 신경망에서 출력되는 특징 데이터는 기준 이미지의 특징 맵(feature map)일 수 있고, 제2 신경망의 출력되는 특징 데이터는 제1 추출 이미지의 특징 맵 일 수 있다.The output data of the first neural network is feature data of a reference image, and the output data of the second neural network is feature data of the first extracted image. For example, the feature data output from the first neural network may be a feature map of the reference image, and the feature data output from the second neural network may be a feature map of the first extracted image.
상기 제3 신경망은 상기 기준 이미지의 특징 데이터와 상기 제1 추출 이미지의 특징 데이터를 융합(fusion)하는 융합 레이어를 포함할 수 있다. 상기 '융합'의 결과로 출력되는 데이터에는, 상기 기준 이미지의 특징 정보와 상기 제1 추출 이미지의 특징 정보가 모두 반영된다. 즉, 상기 기준 이미지의 특징 정보와 상기 제1 추출 이미지의 특징 정보가 모두 반영될 수 있는 다양한 방식으로 상기 '융합'이 이뤄질 수 있을 것이다.The third neural network may include a fusion layer for fusion of feature data of the reference image and feature data of the first extracted image. In the data output as a result of the'fusion', both feature information of the reference image and feature information of the first extracted image are reflected. That is, the'fusion' may be achieved in various ways in which both the feature information of the reference image and the feature information of the first extracted image can be reflected.
예를 들어, 상기 융합 레이어에서 출력 되는 데이터는 상기 기준 이미지의 특징 벡터에 상기 제1 추출 이미지의 특징 벡터가 그대로 연결(concatenation)된 것이거나, 상기 기준 이미지의 특징 벡터와 상기 제1 추출 이미지의 특징 벡터가 합산(summation)된 것이거나, 상기 기준 이미지의 특징 벡터와 상기 제1 추출 이미지의 특징 벡터가 곱해진 것일 수 있을 것이다.For example, the data output from the fusion layer is that the feature vector of the first extracted image is concatenated with the feature vector of the reference image, or the feature vector of the reference image and the first extracted image are A feature vector may be summed, or a feature vector of the reference image and a feature vector of the first extracted image may be multiplied.
또한, 상기 제3 신경망은 퓨전 네트워크(fusion network)로서, 해당 기술의 통상의 기술자가 변형할 수 있는 다양한 형태의 신경망으로 대체될 수 있다. 예를 들어 상기 제3 신경망은 텐서 퓨전 네트워크(tensor fusion network)일 수 있다. In addition, the third neural network is a fusion network, and may be replaced with various types of neural networks that can be modified by a person skilled in the art. For example, the third neural network may be a tensor fusion network.
또한 일 실시예에 따른 상기 제3 신경망은 완전 결합 레이어(fully connected layer)를 더 포함함으로써, 분류(classification), 클러스터링 등 다양한 태스크(task)를 수행할 수도 있을 것이다.In addition, the third neural network according to an embodiment may further include a fully connected layer to perform various tasks such as classification and clustering.
이하 도 2를 참조하여 본 발명의 다른 실시예에 따른 하나의 기준 이미지와 복수의 추출 이미지를 이용한 신경망 학습 방법에 대하여 설명한다. 도 1을 참조하여 설명한 실시예에서, 하나의 기준 이미지와 하나의 비교 이미지가 신경망의 학습에 이용되었다. 반면에 도 2를 참조하여 설명하는 실시예에서는, 피사체에 대한 더 많은 정보를 이용하여 상기 피사체에 대한 특징이 추출될 수 있도록, 하나의 기준 이미지와 두개의 비교 이미지가 신경망의 학습에 이용된다. 이 때, 상기 두개의 비교 이미지 각각은, 상기 피사체가 서로 다른 설정에 의하여 촬영된 것이다. 본 실시예에 따른 신경망 학습 방법이 서로 다른 설정에 의하여 촬영된 3개 이상의 비교 이미지를 이용하는 것으로 변형될 수도 있음은 물론이다.Hereinafter, a neural network training method using one reference image and a plurality of extracted images according to another embodiment of the present invention will be described with reference to FIG. 2. In the embodiment described with reference to FIG. 1, one reference image and one comparison image are used for training of a neural network. On the other hand, in the embodiment described with reference to FIG. 2, one reference image and two comparison images are used for learning of the neural network so that the feature of the subject can be extracted using more information about the subject. In this case, in each of the two comparison images, the subject was photographed with different settings. It goes without saying that the neural network learning method according to the present embodiment may be modified to use three or more comparison images captured by different settings.
중복 서술을 피하기 위해 단계 S101 내지 단계 S105에 대한 설명은 생략한다.In order to avoid redundant description, descriptions of steps S101 to S105 are omitted.
단계 S109에서, 제2 비교 이미지를 이용하여 제2 추출 이미지가 획득되고, 상기 제2 추출 이미지가 제4 신경망에 입력된다. 상기 제2 추출 이미지는 상기 제2 비교 이미지와 상기 기준 이미지 간의 픽셀 값의 차이에 대한 데이터로 형성된 이미지이다. 상기 제4 신경망은 상기 제2 추출 이미지의 특징 데이터를 출력한다. 상기 제1 추출 이미지와 관련하여 이미 설명한 바와 유사하게, 제2 비교 이미지의 깊이와 기준 이미지의 깊이 간 차이에 관한 정보가 상기 제2 추출 이미지와 함께 상기 제4 신경망에 입력될 수도 있다.In step S109, a second extracted image is obtained using the second comparison image, and the second extracted image is input to the fourth neural network. The second extracted image is an image formed of data on a difference in pixel values between the second comparison image and the reference image. The fourth neural network outputs feature data of the second extracted image. Similar to what has already been described in relation to the first extracted image, information about a difference between the depth of the second comparison image and the depth of the reference image may be input to the fourth neural network together with the second extracted image.
상기 제2 비교 이미지는 상기 제1 비교 이미지와 다른 설정에 의하여 상기 피사체가 촬영된 것이다. 예를 들어 제1 비교 이미지와 기준 이미지 간 깊이 차이는 제2 비교 이미지와 기준 이미지 간 깊이 차이와 동일할 수 있다. 예를 들어, 촬영 방향에 따른 깊이를 달리 하여 피사체에 대한 일련의 슬라이스 이미지가 촬영된 경우(IMAGE[0, 1, ... ,N]), 기준 이미지(IMAGE[i])와 제1 비교 이미지(IMAGE[i+s]) 사이의 스트라이드(stride; s)와, 상기 기준 이미지와 제2 비교 이미지(IMAGE[i-s]) 사이의 스트라이드는 동일할 수 있다. 즉, 상기 제1 비교 이미지(IMAGE[i+s])와 상기 제2 비교 이미지(IMAGE[i-s])는 기준 이미지(IMAGE[i])를 중심으로 깊이 측면에서 대칭을 이룬다.The second comparison image is a photograph of the subject in a setting different from that of the first comparison image. For example, the difference in depth between the first comparison image and the reference image may be the same as the difference in depth between the second comparison image and the reference image. For example, when a series of sliced images of a subject are taken with different depths according to the shooting direction (IMAGE[0, 1, ... ,N]), the first comparison with the reference image (IMAGE[i]) The stride s between the images IMAGE[i+s] and the stride s between the reference image and the second comparison image IMAGE[is] may be the same. That is, the first comparison image IMAGE[i+s] and the second comparison image IMAGE[i-s] are symmetrical in depth with respect to the reference image IMAGE[i].
일 실시예에서, 상기 제1 신경망과 상기 제2 신경망 및 상기 제4 신경망은 동일한 세팅으로 구성된 것일 수 있다. 즉, 상기 제1 신경망, 상기 제2 신경망 및 상기 제4 신경망은 레이어 개수, 각 레이어의 노드 개수, 인접 레이어의 노드들 사이의 연결 설정 등 신경망 구성과 관련된 세팅이 완전히 동일한 것일 수 있다. 또한, 상기 제1 신경망, 상기 제2 신경망 및 상기 제4 신경망이 2D CNN인 경우, 상기 제1 신경망, 상기 제2 신경망 및 상기 제4 신경망에 사용되는 필터의 종류 및 개수와, 각각의 필터의 적용 순서 역시 동일할 수 있다.In an embodiment, the first neural network, the second neural network, and the fourth neural network may be configured with the same settings. That is, the first neural network, the second neural network, and the fourth neural network may have completely identical settings related to the neural network configuration, such as the number of layers, the number of nodes of each layer, and the connection setting between nodes of adjacent layers. In addition, when the first neural network, the second neural network, and the fourth neural network are 2D CNN, the type and number of filters used in the first neural network, the second neural network, and the fourth neural network, and each filter The order of application may also be the same.
다른 실시예에서, 상기 제1 신경망에 입력되는 기준 이미지는 피사체의 특정 깊이에 상응하는 온전한 이미지인 반면, 상기 제2 신경망에 입력되는 제1 추출 이미지와 상기 제4 신경망에 입력되는 제2 추출 이미지는, 기준 이미지와의 차이 값에 관한 정보만을 담고 있는 이미지인 점을 반영하여, 상기 제1 신경망과 상기 제2 신경망은 적어도 일부 세팅이 서로 상이하고, 또한 상기 제1 신경망과 상기 제4 신경망 역시 적어도 일부 세팅이 서로 상이할 수도 있을 것이다. 다만, 이 경우에도 상기 제1 추출 이미지와 상기 제2 추출 이미지는 모두 기준 이미지와의 차이 값에 관한 정보만을 담고 있는 이미지이므로, 상기 제2 신경망 및 상기 제4 신경망은 동일한 세팅으로 구성될 수 있을 것이다.In another embodiment, the reference image input to the first neural network is a complete image corresponding to a specific depth of the subject, whereas the first extracted image input to the second neural network and the second extracted image input to the fourth neural network Is, reflecting that it is an image that contains only information about a difference value from a reference image, the first neural network and the second neural network have at least some settings different from each other, and the first neural network and the fourth neural network are also At least some settings may be different. However, even in this case, since both the first extracted image and the second extracted image are images containing only information about a difference value from the reference image, the second neural network and the fourth neural network may be configured with the same setting. will be.
한편, 다른 실시예에서 기준 이미지와 각각의 비교 이미지 사이의 차이 값에 관한 정보로 형성된 추출 이미지는 모두 동일한 신경망에 입력될 수도 있다. 예를 들면, 복수의 추출 이미지는 동일한 신경망에 입력되 수 있다. 일 실시예로, 상기 제1 추출 이미지와 상기 제2 추출 이미지는 모두 상기 제2 신경망에 입력될 수 있다.Meanwhile, in another embodiment, all extracted images formed from information about a difference value between the reference image and each comparison image may be input to the same neural network. For example, a plurality of extracted images may be input to the same neural network. In an embodiment, both the first extracted image and the second extracted image may be input to the second neural network.
제1 추출 이미지의 특징 데이터와 제2 추출 이미지의 특징 데이터가 동일한 신경망에 의해 획득되는 경우에도, 제1 추출 이미지의 특징 데이터와 제2 추출 이미지의 특징 데이터 및 기준 이미지의 특징 데이터는 모두 병렬적으로 제3 신경망에 입력될 수 있다. 이 경우, 상기 제3 신경망은 상기 제2 신경망으로부터 입력된 상기 제1 추출 이미지의 특징 데이터와, 역시 상기 제2 신경망으로부터 입력된 상기 제2 추출 이미지의 특징 데이터와, 상기 제1 신경망으로부터 입력된 상기 기준 이미지의 특징 데이터를 융합할 수 있다.Even when the feature data of the first extracted image and the feature data of the second extracted image are acquired by the same neural network, the feature data of the first extracted image, the feature data of the second extracted image, and the feature data of the reference image are all parallel. Can be input to the third neural network. In this case, the third neural network includes feature data of the first extracted image input from the second neural network, feature data of the second extracted image also input from the second neural network, and the feature data input from the first neural network. Feature data of the reference image may be fused.
단계 S111에서 제1 신경망, 제2 신경망 및 제4 신경망 각각의 출력 데이터가 제3 신경망에 입력됨으로써, 상기 제3 신경망에서 상기 기준 이미지의 특징 데이터, 상기 제1 추출 이미지의 특징 데이터 및 상기 제2 추출 이미지의 특징 데이터가 모두 융합되고, 융합된 특징을 이용하여 분류(classification) 등의 태스크가 더 수행될 수 있을 것이다.In step S111, output data of each of the first neural network, the second neural network, and the fourth neural network are input to a third neural network, so that feature data of the reference image, feature data of the first extracted image, and the second neural network are All feature data of the extracted image may be fused, and a task such as classification may be further performed using the fused feature.
도 3을 참조하여 다양한 설정으로 촬영된 피사체의 복수의 이미지에 관하여 상세히 설명한다. 피사체의 촬영과 관련된 상기 설정을 달리함으로써 다양한 기준 이미지 및 비교 이미지가 획득될 수 있다.A plurality of images of a subject photographed with various settings will be described in detail with reference to FIG. 3. Various reference images and comparison images may be obtained by varying the settings related to photographing of the subject.
본 발명의 몇몇 실시예에 따른 제1 비교 이미지의 촬영과 관련된 '설정'과 제2 비교 이미지의 촬영과 관련된 '설정'은 카메라 각도에 관한 정보일 수 있다. 예를 들어 기준 이미지가 3번 설정(102)으로 획득된 이미지(122)인 경우, 제1 비교 이미지와 제2 비교 이미지는 동일한 수치의 카메라 각도이되, 서로 다른 방향으로 설정된 촬영에 의해 획득될 수 있다. 따라서 기준 이미지(122)가 촬영된 카메라 위치와 피사체 간의 직선(102)을 기준으로 2번 설정(101)의 카메라 각도(105)와 4번 설정(103)의 카메라 각도(106)가 동일한 경우, 2번 설정에 의해 획득된 이미지(121)와 4번 설정에 의해 획득된 이미지(123) 각각은 제1 비교 이미지와 제2 비교 이미지로 지정될 수 있다.According to some embodiments of the present invention,'setting' related to capturing of the first comparison image and'setting' related to capturing of the second comparison image may be information about a camera angle. For example, if the reference image is the
마찬가지로 기준 이미지(122)가 촬영된 카메라 위치와 피사체 간의 직선(102)을 기준으로 1번 설정(100)의 카메라 각도와 5번 설정(104)의 카메라 각도가 동일한 경우 상기 1번 설정(100)에 의해 획득된 이미지(120)와 5번 설정(104)에 의해 획득된 이미지(124) 각각은 제1 비교 이미지와 제2 비교 이미지로 지정될 수 있다. 또한 비교 이미지의 개수는 2개에 한정되지 않는 바, 상기 1번 설정(100)에 의해 획득된 이미지(120), 상기 2번 설정(101)에 의해 획득된 이미지(121), 상기 4번 설정(103)에 의해 획득된 이미지(123) 및 상기 5번(104) 설정에 의해 획득된 이미지(104)를 포함하는 4개 이상의 비교 이미지가 획득될 수도 있다.Likewise, if the camera angle of setting No. 1 (100) and the camera angle of setting No. 5 (104) are the same based on the
상기 획득된 복수의 비교 이미지를 이용하여 상기 복수의 비교 이미지 각각을 기초로 복수의 추출 이미지가 획득됨으로써, 상기 다양한 조합의 복수의 추출 이미지를 이용한 풍부한 양의 신경망 학습 데이터가 생성될 수 있다.A plurality of extracted images are obtained based on each of the plurality of comparison images using the obtained plurality of comparison images, so that a rich amount of neural network training data may be generated using the plurality of extracted images of various combinations.
또한 본 발명의 몇몇 실시예에서 상기 추출 이미지와 상기 추출 이미지에 대응되는 깊이 정보가 신경망의 학습에 더 이용될 수 있다. 이 경우, 일 실시예에 따른 추출 이미지에 대응되는 깊이 정보는 기준 이미지가 촬영된 카메라 위치와 피사체 간의 직선과 비교 이미지가 촬영된 카메라 위치와 피사체 간의 직선 간 각도 차이일 수 있다.In addition, in some embodiments of the present invention, the extracted image and depth information corresponding to the extracted image may be further used for learning of a neural network. In this case, the depth information corresponding to the extracted image according to an exemplary embodiment may be a straight line between a camera position at which a reference image is captured and a subject, and an angle difference between a camera position at which the comparison image is captured and a straight line between the subject.
상기 깊이 정보는 도 4에 도시된 바와 같이 기 지정된 기준면에서 피사체의 특정 단층면까지의 높이 차이에 대한 정보일 수 있다. 따라서 기준 이미지에 대응되는 피사체의 높이(113)와 제1 비교 이미지에 대응되는 피사체의 높이(111) 간 차이는 기준 이미지에 대응되는 피사체의 높이(113)와 제2 비교 이미지에 대응되는 피사체의 높이(112) 간 차이와 동일한 수치를 갖도록 상기 기준 이미지, 제1 비교 이미지 및 제2 비교 이미지가 지정될 수 있다.As illustrated in FIG. 4, the depth information may be information on a height difference from a predetermined reference plane to a specific tomographic plane of the subject. Therefore, the difference between the height 113 of the subject corresponding to the reference image and the
이하 도 5를 참조하여, 연속 촬영의 설정 변경에 따라 획득되는 복수의 이미지에서, 기준 이미지 및 비교 이미지를 획득하는 방법을 설명한다.Hereinafter, a method of acquiring a reference image and a comparison image from a plurality of images acquired according to a setting change of continuous shooting will be described with reference to FIG. 5.
예를 들어 피사체에 대한 촬영 각도를 연속적으로 조절함으로써 복수의 2D 이미지(210)가 획득될 수 있고, 획득된 복수의 2D 이미지(210)중 하나의 2D 이미지가 기준 이미지로 지정될 수 있다.For example, a plurality of
일 실시예에 따른 상기 기준 이미지는 복수의 이미지 중 피사체에 관하여 가장 많은 정보가 포함되는 이미지로 지정될 수 있다. 하지만 다양한 신경망 학습 데이터를 확보하기 위하여 태스크(task)마다 상기 복수의 이미지(210) 각각이 모두 기준 이미지로 지정되어 신경망 학습에 이용될 수 있다.The reference image according to an exemplary embodiment may be designated as an image including the most information about a subject among a plurality of images. However, in order to secure various neural network training data, each of the plurality of
본 발명의 몇몇 실시예에서 신경망 학습 태스크가 반복되는 경우, 이전 신경망 학습에서 사용된 기준 이미지와 상이한 기준 이미지를 이용하여 동일한 신경망의 학습 과정이 반복될 수 있다. 반복되는 신경망 학습 과정마다, 이전 신경망 학습과정에서 획득할 수 없었던 피사체에 대한 정보를 포함하는 기준 이미지가 새롭게 지정되고, 각각의 기준 이미지와 관련된 추출 이미지를 이용하여 신경망이 학습될 수 있다.In some embodiments of the present invention, when the neural network training task is repeated, the training process of the same neural network may be repeated using a reference image different from the reference image used in the previous neural network training. For each repetitive neural network training process, a reference image including information on a subject that could not be acquired in the previous neural network training process is newly designated, and the neural network may be trained using an extracted image related to each reference image.
이 경우, 각각의 기준 이미지에 포함된 다양한 피사체에 관한 정보뿐 아니라 상기 기준 이미지에 따라 달리지는 추출 이미지에 관한 정보도 신경망 학습에 이용되어 더욱 고도화된 신경망이 형성될 수 있다.In this case, not only information on various subjects included in each reference image but also information on an extracted image running according to the reference image may be used for neural network learning, thereby forming a more advanced neural network.
기준 이미지(201)가 지정된 후, 상기 기준 이미지(201)와 상이한 하나 이상의 비교 이미지(202, 203, 204, 205)가 지정될 수 있다. 일 실시예에 따라 하나의 추출 이미지를 획득하기 위해 하나의 기준 이미지와 하나의 비교 이미지가 지정될 수도 있고, 하나의 기준 이미지와 두개 이상의 비교 이미지가 지정될 수도 있다.After the
도 5에 도시된 바와 같이 피사체의 복수의 깊이 정보 각각에 대응되는 복수의 이미지(210)가 상기 깊이 정보를 기준으로 정렬될 수 있다. 일 실시예에 따라 피사체의 깊이 '0'에 대응되는 기준 이미지(201)가 획득된 경우, 피사체의 깊이 '-5'에 대응되는 제1 비교 이미지(202)와 피사체의 깊이 '+5'에 대응되는 제2 비교 이미지(203)는 각각 기준 이미지(201)와 동일한 깊이 차이를 갖도록 지정된 것일 수 있다.As shown in FIG. 5, a plurality of
다른 실시예에 따라 기준 이미지(201)와 다양한 깊이 정보를 갖는 여러 쌍의 비교 이미지(202, 203, 204, 205)가 추출 이미지를 획득하기 위해 이용될 수 있다. 예를 들어 피사체의 깊이 '0'에 대응되는 기준 이미지(201)가 획득된 경우, 피사체의 깊이 '-5'에 대응되는 이미지(202)와 피사체의 깊이 '+5'에 대응되는 이미지(203)가 각각 한 쌍의 제1 비교 이미지와 제2 비교 이미지로 획득될 수 있고, 피사체의 깊이 '-10'에 대응되는 이미지(204)와 피사체의 깊이 '+10'에 대응되는 이미지(205)도 각각 다른 한 쌍의 제1 비교 이미지와 제2 비교 이미지로 더 획득될 수 있다.According to another embodiment, the
이하, 도 6을 참조하여 기준 이미지와 비교 이미지를 이용하여 추출 이미지를 획득하는 방법을 설명한다.Hereinafter, a method of acquiring an extracted image using a reference image and a comparison image will be described with reference to FIG. 6.
추출 이미지는 기준 이미지와 상이한 '깊이 정보'를 갖는 비교 이미지를 기초로 형성된 이미지일 수 있다. 일 실시예에 따른 추출 이미지는 기준 이미지와 비교 이미지 간 픽셀 값의 차이를 이용하여 획득될 수 있다. 다른 실시예에서 추출 이미지는 상기 기준 이미지와 비교 이미지 간 픽셀 값의 차이에 절대값을 취함으로써 획득될 수 있고, 상기 추출 이미지는 상기 절대값으로 변환된 수치를 기초로 생성된 흑백 이미지 일 수도 있다.The extracted image may be an image formed based on a comparison image having'depth information' different from the reference image. The extracted image according to an embodiment may be obtained using a difference in pixel values between the reference image and the comparison image. In another embodiment, the extracted image may be obtained by taking an absolute value from the difference in pixel values between the reference image and the comparison image, and the extracted image may be a black and white image generated based on a numerical value converted to the absolute value. .
일 실시예에 따라 하나의 기준 이미지와 하나의 비교 이미지가 획득된 경우, 상기 기준 이미지와 비교 이미지 간 차이를 기초로 하나의 추출 이미지가 획득될 수 있다.According to an embodiment, when one reference image and one comparison image are obtained, one extracted image may be obtained based on a difference between the reference image and the comparison image.
다른 실시예에 따라 도 6에 도시된 바와 같이 하나의 기준 이미지와 두개의 비교 이미지가 획득된 경우, 기준 이미지와 제1 비교 이미지 간의 차이 및 기준 이미지와 제2 비교 이미지 간의 차이를 기초로 각각 제1 추출 이미지와 제2 추출 이미지가 획득될 수 있다.According to another embodiment, when one reference image and two comparison images are obtained, as shown in FIG. 6, based on the difference between the reference image and the first comparison image and the difference between the reference image and the second comparison image, respectively. The first extracted image and the second extracted image may be obtained.
비교 이미지가 신경망에 입력되어 상기 신경망 학습에 이용되는 대신, 추출 이미지가 신경망에 입력되어 상기 신경망 학습에 이용됨으로써 기준 이미지 및 비교 이미지만으로는 획득할 수 없는 피사체의 깊이 정보가 신경망 학습에 더 이용될 수 있다.Instead of the comparison image being input to the neural network and used for training the neural network, the extracted image is input to the neural network and used for training the neural network, so that depth information of the subject that cannot be obtained using only the reference image and the comparison image can be further used for the neural network training have.
이하, 도 7을 참조하여 하나의 기준 이미지와 하나의 추출 이미지를 이용한 피사체 특징 추출 신경망의 구성에 대하여 상세히 설명한다.Hereinafter, a configuration of a subject feature extraction neural network using one reference image and one extracted image will be described in detail with reference to FIG. 7.
먼저 제1 신경망(310)을 이용하여 기준 이미지의 특징 데이터(311)를 획득하고, 제2 신경망(320)을 이용하여 제1 추출 이미지의 특징 데이터(321)를 획득할 수 있다. 기준 이미지의 특징 데이터(311) 및 제1 추출 이미지의 특징 데이터(321)는 너비(width), 높이(height) 및 채널(channel) 값에 대한 정보를 포함하는 데이터일 수 있다. 상기 제1 신경망 및 상기 제2 신경망에서 출력되는 특징 데이터 특징 맵(map)일 수 있다.First, the
이후, 상기 기준 이미지의 특징 데이터(311) 및 제1 추출 이미지의 특징 데이터(321)는 상기 특징 데이터들(311, 312)을 융합(fusion)하는 제3 신경망(322)에 입력될 수 있다. 상기 제3 신경망(322)은 피사체의 특징을 이용하여 수행된 태스크의 결과를 가리키는 태스크 결과 맵(323)을 출력할 수 있다.Thereafter, the
도 8에 도시된 바와 같이 제1 신경망(330)에서 출력된 특징 데이터(331)와 제2 신경망(340)에서 출력된 특징 데이터(341)를 융합하는 신경망(350)에서 출력된 특징 데이터를 입력 받아 분류(classification)와 같은 태스크를 수행하는 신경망(360)이 태스크 결과 맵(361)을 출력할 수도 있다.As shown in FIG. 8, the feature data output from the
태스크 결과 맵(361)은 피사체에 대한 2D 이미지의 특징 데이터를 이용하여 추출할 수 있는 피사체의 특징과 관련된 정보를 가리키는 데이터이다. 예를 들어, 태스크 결과 맵(361)은 사람의 신체에 대한 단층 촬영 이미지를 이용하여 추출할 수 있는 상기 사람의 신체에 대한 암 발병 여부를 가리키는 데이터일 수 있다.The
이하 도 9 내지 도 10을 참조하여 특징 데이터를 융합하는 방법에 대하여 상세히 설명한다. 도 9에 도시된 바와 같이, 복수의 특징 데이터들을 입력 받은 신경망(372)은, 특징 데이터 융합의 결과로서, 상기 복수의 특징 데이터(370, 371)가 채널 축을 기준으로 연결(concatenate)된 데이터(373)를 생성할 수 있다.Hereinafter, a method of fusing feature data will be described in detail with reference to FIGS. 9 to 10. As shown in FIG. 9, the
또는, 도 10에 도시된 바와 같이 복수의 특징 데이터(380, 381)들을 입력 받은 신경망(382)은 하나 이상의 중첩(convolution) 단계와 하나 이상의 통합(pooling)단계를 포함하고 곱셈, 덧셈 및 감산 등의 연산을 통해 입력 데이터와 동일한 크기의 데이터(383)를 출력할 수도 있다. 상기 특징 데이터 융합의 결과로서 출력된 특징 데이터(383)는 상기 특징 데이터들을 이용하여 분류(classification) 또는 클러스터링 중 어느 하나 이상을 수행할 수 있는 신경망(384)에 입력되고, 상기 신경망(384)으로부터 태스크 결과 맵(385)이 출력될 수 있다.Alternatively, as shown in FIG. 10, the
본 발명의 또 다른 실시예에 따르면 도 11에 도시된 바와 같이 하나의 기준 이미지와 복수의 추출 이미지가 신경망 학습에 이용될 수 있다.According to another embodiment of the present invention, as shown in FIG. 11, one reference image and a plurality of extracted images may be used for neural network training.
기준 이미지의 특징 데이터(401), 제1 추출 이미지의 특징 데이터(411)및 제2 추출 이미지의 특징 데이터(421)를 이용하여 제3 신경망을 학습시키는 경우 기준 이미지에 포함된 피사체에 관한 정보와 제1 추출 이미지에 상응하는 피사체에 관한 정보 및 제2 추출 이미지에 상응하는 피사체에 관한 정보가 모두 제3 신경망 학습에 이용 될 수 있고, 상기 제1 추출 이미지의 깊이 정보 및 상기 제1 추출 이미지의 깊이 정보가 상기 제3 신경망 학습에 더 이용될 수도 있다. 전술한 바와 같이, 상기 제1 추출 이미지와 상기 제2 추출 이미지는 각각 상기 기준 이미지를 중심으로 깊이 측면에서 대칭을 이루는 제1 비교 이미지와 제2 비교 이미지를 기초로 형성될 수 있다.When a third neural network is trained using the
따라서 제1 추출 이미지와 제2 추출 이미지가 모두 병렬적으로 신경망 학습에 이용되는 경우, 일정 깊이 차이에 따라 반복적으로 존재하는 피사체의 특징과 관련된 정보와 같이, 하나의 추출 이미지와 기준 이미지만을 이용하여 신경망을 학습시키는 경우에는 획득할 수 없는 정보를 더 획득할 수 있다.Therefore, when both the first extracted image and the second extracted image are used in parallel for neural network training, only one extracted image and a reference image are used, such as information related to the characteristic of a subject that repeatedly exists according to a certain depth difference. In the case of training a neural network, more information that cannot be obtained may be obtained.
또한, 다른 실시예에 따라 기준 이미지의 특징 데이터(401), 제1 추출 이미지의 특징 데이터(411)및 제2 추출 이미지의 특징 데이터(421)는 기 지정된 가중치로 제3 신경망에 입력될 수 있다.In addition, according to another embodiment, the
일 실시예에서 기준 이미지의 특징 데이터(401)에 가장 큰 가중치가 부여될 수 있다.In an embodiment, the largest weight may be assigned to the
다른 실시예에서, 제1 추출 이미지의 특징 데이터(411)의 가중치와 제2 추출 이미지의 특징 데이터(421)의 가중치가, 기준 이미지의 특징 데이터(401)의 가중치보다 더 클 수도 있다. 또 다른 실시예에서, 제1 추출 이미지의 특징 데이터(411)의 가중치와 제2 추출 이미지의 특징 데이터(421)의 가중치는 동일 하게 부여될 수 있다. 또한, 기준 이미지의 특징 데이터(401)와 제1 추출 이미지의 특징 데이터(411)와 제2 추출 이미지의 특징 데이터(421)에 대한 가중치가 모두 동일하게 지정될 수도 있다.In another embodiment, the weight of the
즉, 상기 기준 이미지의 특징 데이터, 제1 추출 이미지의 특징 데이터 및 제2 추출 이미지의 특징 데이터에 지정되는 가중치는 신경망에서 추출하고자 하는 피사체의 특징이 무엇인지에 따라 다양하게 지정될 수 있을 것이다.That is, the weights assigned to the feature data of the reference image, the feature data of the first extracted image, and the feature data of the second extracted image may be variously designated according to the feature of the subject to be extracted from the neural network.
도 12를 참조할 때, 본 발명의 또 다른 실시예에 따르면 기준 이미지, 제1 비교 이미지 및 제1 추출 이미지가 신경망의 학습에 이용될 수 있다.Referring to FIG. 12, according to another embodiment of the present invention, a reference image, a first comparison image, and a first extracted image may be used for training a neural network.
기준 이미지와 제1 추출 이미지만 신경망에 학습데이터로 이용되는 경우, 제1 추출 이미지에 포함된 피사체에 관한 깊이 정보 외의 피사체에 관한 정보는 대부분 기준 이미지로부터 획득할 수 밖에 없다. 따라서, 기준 이미지와 제1 추출 이미지뿐 아니라 제1 비교 이미지를 더 이용하여, 상기 제1 비교 이미지에만 포함된 피사체에 관한 정보를 신경망의 학습에 더 이용할 수 있다. 본 실시예에의 따른 기준 이미지를 입력 받는 신경망(440)은 상기 기준 이미지의 특징 데이터(441)를 출력할 수 있고, 제1 비교 이미지를 입력 받는 신경망(450)은 상기 제1 비교 이미지의 특징 데이터(451)를 출력할 수 있다. 그리고 제1 추출 이미지를 입력 받는 신경망(460)은 상기 제1 추출 이미지의 특징 데이터(461)를 출력할 수 있다.When only the reference image and the first extracted image are used as training data for the neural network, most of the information on the subject other than depth information on the subject included in the first extracted image must be obtained from the reference image. Accordingly, by further using the first comparison image as well as the reference image and the first extracted image, information on the subject included only in the first comparison image can be further used for learning of the neural network. The
도 13을 참조하여 기준 이미지의 특징 데이터와 비교 이미지의 특징 데이터 간 차이를 기초로 형성된 추출 데이터를 이용하여 신경망을 학습하는 방법에 대해 설명한다. A method of learning a neural network using extracted data formed based on a difference between feature data of a reference image and feature data of a comparison image will be described with reference to FIG. 13.
본 실시예에 따르면 기준 이미지의 특징 데이터(490)와 제1 비교 이미지의 특징 데이터(491a) 간 차이를 기초로 제1 추출 데이터(491b)가 형성 될 수 있고, 기준 이미지의 특징 데이터(490)와 제2 비교 이미지의 특징 데이터(492a) 간의 차이를 기초로 제2 추출 데이터(492b)가 형성될 수 있다.According to the present embodiment, the first extracted
상기 기준 이미지의 특징 데이터(490)와 제1 비교 이미지의 특징 데이터(491a) 간 차이 및 상기 기준 이미지의 특징 데이터(490)와 제2 비교 이미지의 특징 데이터(492a) 간 차이는 기준 이미지의 특징 데이터(490), 제1 비교 이미지의 특징 데이터(491a) 및 제2 비교 이미지의 특징 데이터(492a) 각각에 포함된 수치 값의 감산(subtraction) 연산을 기초로 형성될 수 있다. 구체적으로 특징 데이터들의 너비, 높이, 채널 값 중 어느 하나 이상을 감산 연산에 이용할 수 있다.The difference between the
이 경우, 기준 이미지의 특징 데이터(490)와 제1 추출 데이터(491b) 및 제2 추출 데이터(492b)가 피사체의 특징을 추출하는 제3 신경망의 입력 데이터로 이용될 수 있다.In this case, the
이와 같이, 본 개시는 복수의 이미지 간의 차이점 추출뿐만 아니라, 특징 영역(feature space) 상에서의 차이점 추출도 가능하다. 그리고 특징 영역 상에서 추출된 차이점을 이용하여 상술한 것과 같은 신경망 학습이 수행될 수도 있다.As described above, according to the present disclosure, not only differences between a plurality of images are extracted, but also differences in a feature space may be extracted. In addition, neural network training as described above may be performed using the difference extracted on the feature region.
이하 도 14를 참조하여 신경망 학습 장치의 동작에 대하여 상세히 설명한다.Hereinafter, the operation of the neural network learning apparatus will be described in detail with reference to FIG. 14.
본 발명의 또 다른 실시예에 따른 피사체 특징 추출 신경망 학습 장치(500)는 이미지 특징 추출 신경망부(502), 피사체 특징 추출 신경망부(504) 및 이미지 특징 데이터 DB(513)를 포함하고, 몇몇 실시예에서 이미지 전처리부(501), 특징 데이터 전처리부(503), 피사체 이미지 DB(511) 및 추출 이미지 DB(512)를 더 포함할 수 있다.A subject feature extraction neural
이미지 전처리부(501)는 피사체 이미지 DB(511)로부터 기준 이미지 및 비교 이미지를 수신할 수 있고, 상기 피사체 이미지 DB(511)로부터 수신한 기준 이미지 및 비교 이미지 간의 차이를 이용하여 추출 이미지를 형성할 수 있다. 일 실시예에 따른 이미지 전처리부(501)는 상기 기준 이미지 및 비교 이미지 간 픽셀 값의 차이를 이용하여 추출 이미지를 획득할 수 있고, 기준 이미지의 특징 데이터 및 비교 이미지의 특징 데이터 간 수치 값의 차이를 이용하여 추출 데이터를 획득할 수도 있다. 획득된 상기 추출 이미지 또는 상기 추출 데이터는 추출 이미지 DB(512)에 저장될 수 있다.The
이미지 특징 추출 신경망부(502)는 기준 이미지 및 추출 이미지를 이용하여 상기 기준 이미지의 상기 특징 데이터 및 추출 이미지의 특징 데이터를 출력할 수 있고 몇몇 실시예에서 비교 이미지를 이용하여 상기 비교 이미지의 특징 데이터를 출력할 수 있다. 일 실시예에 따른 이미지 특징 추출 신경망부(502)는 비교 이미지를 이용하여 상기 비교 이미지에 대한 특징 데이터도 출력할 수 있다. 상기 출력된 특징 데이터는 이미지 특징 데이터 DB(513)에 저장될 수 있다.The image feature extraction
특징 데이터 전처리부(503)는 이미지 특징 데이터 DB(513)로부터 획득한 이미지의 특징 데이터를 융합(fusion)할 수 있다. 상기 데이터의 융합은 신경망(fusion network)에 의해 수행될 수 있으며, 상기 신경망으로부터 채널 축을 기준으로 연결(concatenate)되거나 합산(summation)된 특징 데이터가 출력 될 수 있다.The
피사체 특징 추출 신경망부(504)는 특징 데이터들을 입력 받아 피사체의 특징과 관련된 태스크 결과 맵을 출력할 수 있다. 일 실시예에 따른 피사체 특징 추출 신경망부(504)는 기준 이미지의 특징 데이터 및 추출 이미지의 특징 데이터를 가중치로 지정하여 신경망 학습에 이용할 수 있다.The subject feature extraction
도 15는 본 발명의 또 다른 실시예에 따른 신경망 학습 장치의 하드웨어 구성도이다.15 is a hardware configuration diagram of a neural network learning apparatus according to another embodiment of the present invention.
도 15에 도시된 바와 같이, 컴퓨팅 장치(500)는 하나 이상의 프로세서(550), 시스템 버스, 네트워크 인터페이스(530), 프로세서(550)에 의하여 수행되는 컴퓨터 프로그램을 로드(load)하는 메모리(522)와, 이미지 DB(541) 저장하는 스토리지(540)를 포함할 수 있다. 도 15에는 본 개시의 실시예와 관련 있는 일부 구성요소가 도시되어 있다. 따라서, 본 개시가 속한 기술분야의 통상의 기술자라면 도 15에 도시된 구성요소들 외에 다른 범용적인 구성 요소들이 더 포함될 수 있음을 알 수 있다.As shown in FIG. 15, the
프로세서(550)는 컴퓨팅 장치(500)의 각 구성의 전반적인 동작을 제어한다. 프로세서(550)는 CPU(Central Processing Unit), MPU(Micro Processor Unit), MCU(Micro Controller Unit), GPU(Graphic Processing Unit) 또는 본 개시의 기술 분야에 잘 알려진 임의의 형태의 프로세서 중 적어도 하나를 포함하여 구성될 수 있다. 컴퓨팅 장치(500)는 복수의 프로세서를 구비할 수도 있다. 프로세서(550)는 범용 프로세서가 아닌 머신 러닝에 특화된 구조를 가진 프로세서일 수도 있을 것이다.The
메모리(522)는 각종 데이터, 명령 및/또는 정보를 저장한다. 메모리(522)는 본 개시의 다양한 실시예들에 따른 방법/동작을 실행하기 위하여 스토리지(540)로부터 하나 이상의 인스트럭션들(instructions)(523, 524, 525)을 로드 할 수 있다. 메모리(522)는 RAM과 같은 휘발성 메모리로 구현될 수 있을 것이나, 본 개시의 기술적 범위가 이에 한정되는 것은 아니다.The
버스는 컴퓨팅 장치(500)의 구성 요소 간 통신 기능을 제공한다. 버스는 주소 버스(Address Bus), 데이터 버스(Data Bus) 및 제어 버스(Control Bus) 등 다양한 형태의 버스로 구현될 수 있다.The bus provides communication functions between components of
네트워크 인터페이스(530)는 컴퓨팅 장치(500)의 유무선 인터넷 통신을 지원한다. 또한, 네트워크 인터페이스(530)는 인터넷 통신 외의 다양한 통신 방식을 지원할 수도 있다. 이를 위해, 통신 인터페이스(530)는 본 개시의 기술 분야에 잘 알려진 통신 모듈을 포함하여 구성될 수 있다. 경우에 따라, 네트워크 인터페이스(530)는 생략될 수도 있다.The
스토리지(540)는 상기 하나 이상의 프로그램(미도시) 및 이미지 DB(541)를 비임시적으로 저장할 수 있다. 스토리지(540)는 플래시 메모리 등과 같은 비휘발성 메모리, 하드 디스크, 착탈형 디스크, 또는 본 개시가 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터로 읽을 수 있는 기록 매체를 포함하여 구성될 수 있다.The
이미지 DB(541)는 본 발명의 신경망 학습에 사용되는 피사체의 이미지, 피사체의 복수의 이미지 간 차이에 관한 데이터로 형성된 추출 이미지 및 복수의 이미지의 특징을 추출하는 신경망에서 출력된 특징 데이터가 저장될 수 있다.The
운영체제에 의하여 실행됨에 따라 메모리(522)로 로드되는 컴퓨터 프로그램(미도시)은 학습 데이터를 이용하여 CNN 기반의 뉴럴 네트워크를 학습시키는 동작을 수행한다. 컴퓨터 프로그램의 동작 결과로서 CNN 기반의 뉴럴 네트워크를 정의하는 데이터가 스토리지(540)에 저장될 수 있다. CNN 기반의 뉴럴 네트워크를 정의하는 데이터는 학습 목적에 부합하는 출력을 생성하는 모델로서 네트워크 인터페이스(530)를 통해 다른 컴퓨팅 장치에 송신될 수 있다. 상기 다른 컴퓨팅 장치는 상기 모델을 이용하여 추론(inferring)을 수행할 수 있다. 상기 추론의 예로서, 의료 영상에서 병변의 위치를 찾는 것을 고려할 수 있다.A computer program (not shown) loaded into the
컴퓨터 프로그램은 메모리(522)에 로드된 후, 프로세서(550)로 하여금 도 1 내지 도 13을 참조하여 설명한 방법을 수행하도록 하는 인스트럭션들(523, 524, 525)을 포함할 수 있다. 즉, 프로세서(550)는 상기 인스트럭션들(523, 524, 525)을 실행함으로써, 도 1 내지 도 13을 참조하여 설명한 방법과 관련된 다양한 실시예에 따른 방법들을 수행할 수 있다. 본 명세서에서 인스트럭션이란, 기능을 기준으로 묶인 일련의 컴퓨터 판독가능 명령어들로서 컴퓨터 프로그램의 구성 요소이자 프로세서에 의해 실행되는 것을 가리킨다.The computer program may include
일 실시예에 따른 이미지 차이값 추출 인스트럭션(523)이 실행됨으로써, 기준 이미지와 비교 이미지 간 픽셀 값의 차이로 기초로 형성된 추출 이미지 및 기준 이미지의 특징 데이터와 비교 이미지의 특징 데이터 간 차이를 기초로 형성된 추출 데이터가 획득될 수 있다.By executing the image difference
일 실시예에 따른 이미지 특징 데이터 추출 인스트럭션(524)이 실행됨으로써, 기준 이미지의 특징 데이터 및 추출 이미지의 특징 데이터가 획득될 수 있고 몇몇 실시예에 따라 비교 이미지의 특징 데이터가 더 획득될 수 있다.By executing the image feature
일 실시예에 따른 신경망 학습 인스트럭션(525)이 실행됨으로써, 이미지의 특징을 추출하는 신경망, 추출된 특징 데이터를 융합하는 신경망이 학습될 수 있다.By executing the neural
도 16는 본 발명의 또 다른 실시예에 따른 신경망 학습 시스템의 구성도이다.16 is a block diagram of a neural network learning system according to another embodiment of the present invention.
도 16에 도시된 바와 같이, 본 실시예에 따른 신경망 학습 시스템은 피사체 촬영장치(600) 및 기계 학습 장치(500)를 포함할 수 있다. 실시예에 따라 피사체 이미지 분석 결과 표시 장치(700)가 본 실시예에 따른 신경망 학습 시스템에 더 포함될 수도 있다.As shown in FIG. 16, the neural network learning system according to the present embodiment may include a
피사체 촬영 장치(600)는 본 발명의 몇몇 실시예에 따른 기준 이미지 및 비교 이미지를 촬영하는 장치일 수 있다. 예를 들어 상기 피사체 촬영 장치는 신체에 대한 의료 영상을 촬영하는 장치로서, 예를 들어 X-ray, CT, MRI 등의 영상을 촬영하는 장치일 수 있다. 피사체 촬영 장치(600)는 네트워크를 통해 촬영된 영상 데이터를 기계 학습 장치(500)에 제공한다. 의료 영상은 민감한 개인 정보이므로 상기 네트워크는 외부에서의 접속이 차단되는 네트워크일 수 있다. 즉, 기계 학습 장치(500)와 피사체 촬영 장치(600)는 같은 병원 내에 위치하는 장치일 수 있을 것이다.The
도 16의 기계 학습 장치(500)는 도 15에 도시된 것과 동일한 것으로 이해될 수 있을 것이다. 즉, 기계 학습 장치(500)는 피사체 촬영 장치(600)로부터 제공된 영상 데이터를 축적하고, 기계 학습 수행 기준이 만족되면, 새롭게 축적된 영상 데이터를 이용하여 기계 학습 목적에 맞는 출력 데이터를 출력하는 모델을 보다 고도하게 학습시킬 수 있을 것이다. 이 과정에서 도 1 내지 13를 참조하여 설명된 신경망 학습 방법이 수행되는 것이다.The
기계 학습 장치(500)에 의하여 학습된 모델의 정의 데이터는 피사체 이미지 분석 결과 표시 장치(700)에 송신될 수 있다. 피사체 촬영장치(600) 및 기계 학습 장치(500)와는 달리, 피사체 이미지 결과 표시 장치(700)는 피사체 촬영장치(600)가 설치된 병원 밖에 위치하는 컴퓨팅 장치일 수도 있다. 피사체 이미지 분석 결과 표시 장치(700)는 상기 모델의 정의 데이터를 기계 학습 장치(500)로부터 수신하여 저장하고, 분석 대상 이미지를 상기 모델에 입력함으로써, 분석 결과 데이터를 얻고, 상기 분석 결과 데이터를 렌더링 하며, 그 결과를 화면에 디스플레이 함으로써, 의료 영상에 대한 추론 결과를 표시할 수 있을 것이다.The definition data of the model learned by the
지금까지 설명된 본 발명의 실시예에 따른 방법들은 컴퓨터가 읽을 수 있는 이상에서, 본 발명의 실시예를 구성하는 모든 구성 요소들이 하나로 결합되거나 결합되어 동작하는 것으로 설명되었다고 해서, 본 개시의 기술적 사상이 반드시 이러한 실시예에 한정되는 것은 아니다. 즉, 본 개시의 목적 범위 안에서라면, 그 모든 구성요소들이 하나 이상으로 선택적으로 결합하여 동작할 수도 있다.The methods according to the embodiments of the present invention described so far are described as being combined or combined into one operation of all components constituting the embodiments of the present invention above the computer-readable, technical idea of the present disclosure. This is not necessarily limited to this embodiment. That is, as long as it is within the scope of the object of the present disclosure, one or more of the components may be selectively combined and operated.
도면에서 동작들이 특정한 순서로 도시되어 있지만, 반드시 동작들이 도시된 특정한 순서로 또는 순차적 순서로 실행되어야만 하거나 또는 모든 도시 된 동작들이 실행되어야만 원하는 결과를 얻을 수 있는 것으로 이해되어서는 안 된다. 특정 상황에서는, 멀티태스킹 및 병렬 처리가 유리할 수도 있다. 더욱이, 위에 설명한 실시예들에서 다양한 구성들의 분리는 그러한 분리가 반드시 필요한 것으로 이해되어서는 안 되고, 설명된 프로그램 컴포넌트들 및 시스템들은 일반적으로 단일 소프트웨어 제품으로 함께 통합되거나 다수의 소프트웨어 제품으로 패키지 될 수 있음을 이해하여야 한다.Although the operations are illustrated in a specific order in the drawings, it should not be understood that the operations must be executed in the specific order shown or in a sequential order, or all illustrated operations must be executed to obtain a desired result. In certain situations, multitasking and parallel processing may be advantageous. Moreover, the separation of the various components in the above-described embodiments should not be understood as necessitating such separation, and the program components and systems described may generally be integrated together into a single software product or packaged into multiple software products. It should be understood that there is.
이상 첨부된 도면을 참조하여 본 개시의 실시예들을 설명하였지만, 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자는 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 본 개시가 다른 구체적인 형태로도 실시될 수 있다는 것을 이해할 수 있다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적인 것이 아닌 것으로 이해해야만 한다. 본 개시의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 개시에 의해 정의되는 기술적 사상의 권리범위에 포함되는 것으로 해석되어야 할 것이다.Although the embodiments of the present disclosure have been described with reference to the accompanying drawings, the present disclosure may be implemented in other specific forms without changing the technical spirit or essential features of those of ordinary skill in the art. I can understand that there is. Therefore, it should be understood that the embodiments described above are illustrative in all respects and not limiting. The scope of protection of the present disclosure should be interpreted by the following claims, and all technical ideas within the scope equivalent thereto should be construed as being included in the scope of the technical ideas defined by the present disclosure.
Claims (20)
피사체에 대해 촬영된 기준 이미지 및 상기 피사체에 대해 상기 기준 이미지와는 다른 촬영 설정으로 촬영된 제1 비교 이미지를 얻는 단계;
상기 기준 이미지와 상기 제1 비교 이미지 간의 차이를 기초로 형성된 제1 차이 이미지를 생성하는 단계;
상기 기준 이미지 및 상기 제1 차이 이미지 각각의 특징 데이터를 획득하는 단계; 및
상기 기준 이미지의 특징 데이터 및 상기 제1 차이 이미지의 특징 데이터를 이용하여 특정 태스크 결과를 출력하는 신경망을 학습하는 단계를 포함하는
신경망 학습 방법.In the neural network learning method performed by a computing device,
Obtaining a reference image photographed with respect to a subject and a first comparison image photographed with a photographing setting different from that of the reference image with respect to the subject;
Generating a first difference image formed based on a difference between the reference image and the first comparison image;
Acquiring feature data of each of the reference image and the first difference image; And
And learning a neural network that outputs a specific task result by using the feature data of the reference image and the feature data of the first difference image.
How to learn a neural network.
상기 피사체에 대해, 상기 기준 이미지 및 상기 제1 비교 이미지 각각과는 다른 촬영 설정으로 촬영된 제2 비교 이미지를 얻는 단계;
상기 기준 이미지와 상기 제2 비교 이미지 간의 차이를 기초로 형성된 제2 차이 이미지를 생성하는 단계; 및
상기 생성된 제2 차이 이미지의 특징 데이터를 획득하는 단계를 더 포함하는
신경망 학습 방법.The method of claim 1,
Obtaining, for the subject, a second comparison image photographed with a shooting setting different from each of the reference image and the first comparison image;
Generating a second difference image formed based on a difference between the reference image and the second comparison image; And
Further comprising the step of acquiring feature data of the generated second difference image
How to learn a neural network.
상기 신경망을 학습하는 단계는
상기 기준 이미지, 상기 제1 차이 이미지 및 상기 제2 차이 이미지 각각의 특징 데이터를 이용하여 상기 신경망을 학습하는 단계를 포함하는
신경망 학습 방법.The method of claim 2,
The step of learning the neural network
And learning the neural network using feature data of each of the reference image, the first difference image, and the second difference image.
How to learn a neural network.
상기 제1 비교 이미지와 상기 기준 이미지 간의 상기 피사체에 대한 깊이 차이는 상기 제2 비교 이미지와 상기 기준 이미지 간의 상기 피사체에 대한 깊이 차이와 동일한,
신경망 학습 방법.The method of claim 2,
The difference in depth with respect to the subject between the first comparison image and the reference image is equal to the difference in depth with respect to the subject between the second comparison image and the reference image,
How to learn a neural network.
상기 제1 비교 이미지와 상기 기준 이미지 간의 상기 피사체에 대한 깊이 차이는 상기 제2 비교 이미지와 상기 기준 이미지 간의 상기 피사체에 대한 깊이 차이와 다른,
신경망 학습 방법.The method of claim 2,
The difference in depth with respect to the subject between the first comparison image and the reference image is different from the difference in depth with respect to the subject between the second comparison image and the reference image,
How to learn a neural network.
상기 기준 이미지 및 상기 비교 이미지는 상기 피사체에 대한 3D 이미지를 구성하는 복수의 이미지에 포함되는
신경망 학습 방법.The method of claim 1,
The reference image and the comparison image are included in a plurality of images constituting the 3D image of the subject.
How to learn a neural network.
상기 3D 이미지는
CT(Computerized tomography) 이미지, DBT(Digital breast tomosynthesis) 이미지 중 적어도 하나를 포함하는
신경망 학습 방법.The method of claim 6,
The 3D image is
Comprising at least one of a computerized tomography (CT) image and a digital breast tomosynthesis (DBT) image
How to learn a neural network.
상기 촬영 설정은
상기 피사체에 대한 촬영 각도, 촬영 거리, 깊이 초점 중 적어도 하나를 포함하는
신경망 학습 방법.The method of claim 1,
The above shooting settings are
Including at least one of a shooting angle, a shooting distance, and a depth focus for the subject
How to learn a neural network.
상기 피사체는
신체 일부를 포함하고,
상기 촬영 설정은
상기 신체 일부에 대한 촬영 각도, 촬영 거리, 깊이 초점 중 적어도 하나를 포함하는
신경망 학습 방법.The method of claim 8,
The subject is
Including body parts,
The above shooting settings are
Including at least one of a photographing angle, a photographing distance, and a depth focus for the body part
How to learn a neural network.
피사체에 대해 촬영된 기준 이미지 및 상기 피사체에 대해 상기 기준 이미지와는 다른 촬영 설정으로 촬영된 복수의 비교 이미지를 얻는 단계;
상기 기준 이미지와 상기 복수의 비교 이미지 각각 간의 차이를 기초로 형성된 복수의 차이 이미지를 생성하는 단계;
상기 기준 이미지 및 상기 복수의 차이 이미지 각각의 특징 데이터를 획득하는 단계; 및
상기 기준 이미지의 특징 데이터 및 상기 복수의 차이 이미지 각각의 특징 데이터를 이용하여 특정 태스크 결과를 출력하는 신경망을 학습하는 단계를 포함하는
신경망 학습 방법.In the neural network learning method performed by a computing device,
Obtaining a reference image photographed with respect to a subject and a plurality of comparison images photographed with a photographing setting different from that of the reference image with respect to the subject;
Generating a plurality of difference images formed based on differences between the reference image and each of the plurality of comparison images;
Acquiring feature data of each of the reference image and the plurality of difference images; And
And learning a neural network that outputs a specific task result using feature data of the reference image and feature data of each of the plurality of difference images.
How to learn a neural network.
상기 저장된 하나 이상의 인스트럭션들을 실행함으로써, 피사체에 대해 촬영된 기준 이미지 및 상기 피사체에 대해 상기 기준 이미지와는 다른 촬영 설정으로 촬영된 제1 비교 이미지를 얻고,
상기 기준 이미지와 상기 제1 비교 이미지 간의 차이를 기초로 형성된 제1 차이 이미지를 생성하고,
상기 기준 이미지 및 상기 제1 차이 이미지 각각의 특징 데이터를 획득하고,
상기 기준 이미지의 특징 데이터 및 상기 제1 차이 이미지의 특징 데이터를 이용하여 특정 태스크 결과를 출력하는 신경망을 학습시키는 프로세서를 포함하는
기계 학습 장치.A memory that stores one or more instructions; And
By executing the stored one or more instructions, a reference image photographed for a subject and a first comparison image photographed with a photographing setting different from the reference image for the subject are obtained,
Generating a first difference image formed based on a difference between the reference image and the first comparison image,
Acquiring feature data of each of the reference image and the first difference image,
And a processor that trains a neural network to output a specific task result by using the feature data of the reference image and the feature data of the first difference image.
Machine learning device.
상기 프로세서는
상기 피사체에 대해, 상기 기준 이미지 및 상기 제1 비교 이미지 각각과는 다른 촬영 설정으로 촬영된 제2 비교 이미지를 얻고,
상기 기준 이미지와 상기 제2 비교 이미지 간의 차이를 기초로 형성된 제2 차이 이미지를 생성하고,
상기 생성된 제2 차이 이미지의 특징 데이터를 획득하는
기계 학습 장치.The method of claim 11,
The processor is
For the subject, a second comparison image taken with a shooting setting different from each of the reference image and the first comparison image is obtained,
Generating a second difference image formed based on the difference between the reference image and the second comparison image,
Obtaining feature data of the generated second difference image
Machine learning device.
상기 프로세서는
상기 기준 이미지, 상기 제1 차이 이미지 및 상기 제2 차이 이미지 각각의 특징 데이터를 이용하여 상기 신경망을 학습시키는
기계 학습 장치.The method of claim 12,
The processor is
Learning the neural network using feature data of each of the reference image, the first difference image, and the second difference image
Machine learning device.
상기 제1 비교 이미지와 상기 기준 이미지 간의 상기 피사체에 대한 깊이 차이는 상기 제2 비교 이미지와 상기 기준 이미지 간의 상기 피사체에 대한 깊이 차이와 동일한
기계 학습 장치.The method of claim 12,
The difference in depth with respect to the subject between the first comparison image and the reference image is equal to the difference in depth with respect to the subject between the second comparison image and the reference image.
Machine learning device.
상기 제1 비교 이미지와 상기 기준 이미지 간의 상기 피사체에 대한 깊이 차이는 상기 제2 비교 이미지와 상기 기준 이미지 간의 상기 피사체에 대한 깊이 차이와 다른,
기계 학습 장치.The method of claim 12,
The difference in depth with respect to the subject between the first comparison image and the reference image is different from the difference in depth with respect to the subject between the second comparison image and the reference image,
Machine learning device.
상기 기준 이미지 및 상기 비교 이미지는 상기 피사체에 대한 3D 이미지를 구성하는 복수의 이미지에 포함되는
기계 학습 장치.The method of claim 11,
The reference image and the comparison image are included in a plurality of images constituting the 3D image of the subject.
Machine learning device.
상기 3D 이미지는
CT(Computerized tomography) 이미지, DBT(Digital breast tomosynthesis) 이미지 중 적어도 하나를 포함하는
기계 학습 장치.The method of claim 16,
The 3D image is
Comprising at least one of a computerized tomography (CT) image and a digital breast tomosynthesis (DBT) image
Machine learning device.
상기 촬영 설정은
상기 피사체에 대한 촬영 각도, 촬영 거리, 깊이 초점 중 적어도 하나를 포함하는
기계 학습 장치.The method of claim 11,
The above shooting settings are
Including at least one of a shooting angle, a shooting distance, and a depth focus for the subject
Machine learning device.
상기 피사체는
신체 일부를 포함하고,
상기 촬영 설정은
상기 신체 일부에 대한 촬영 각도, 촬영 거리, 깊이 초점 중 적어도 하나를 포함하는
기계 학습 장치.The method of claim 18,
The subject is
Including body parts,
The above shooting settings are
Including at least one of a photographing angle, a photographing distance, and a depth focus for the body part
Machine learning device.
상기 저장된 하나 이상의 인스트럭션들을 실행함으로써, 피사체에 대해 촬영된 기준 이미지 및 상기 피사체에 대해 상기 기준 이미지와는 다른 촬영 설정으로 촬영된 복수의 비교 이미지를 얻고,
상기 기준 이미지와 상기 복수의 비교 이미지 각각 간의 차이를 기초로 형성된 복수의 차이 이미지를 생성하고,
상기 기준 이미지 및 상기 복수의 차이 이미지 각각의 특징 데이터를 획득하고,
상기 기준 이미지의 특징 데이터 및 상기 복수의 차이 이미지 각각의 특징 데이터를 이용하여 특정 태스크 결과를 출력하는 신경망을 학습시키는 프로세서를 포함하는
기계 학습 장치.A memory that stores one or more instructions; And
By executing the stored one or more instructions, a reference image photographed for a subject and a plurality of comparison images photographed with a photographing setting different from the reference image for the subject are obtained,
Generating a plurality of difference images formed based on differences between the reference image and each of the plurality of comparison images,
Acquiring feature data of each of the reference image and the plurality of difference images,
And a processor for learning a neural network that outputs a specific task result by using feature data of the reference image and feature data of each of the plurality of difference images.
Machine learning device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190144442A KR102167655B1 (en) | 2019-11-12 | 2019-11-12 | Neural network training method for utilizing differences between a plurality of images, and method thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190144442A KR102167655B1 (en) | 2019-11-12 | 2019-11-12 | Neural network training method for utilizing differences between a plurality of images, and method thereof |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190038145A Division KR102046134B1 (en) | 2019-04-02 | 2019-04-02 | Neural network training method for utilizing differences between a plurality of images, and method thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20200116842A KR20200116842A (en) | 2020-10-13 |
KR102167655B1 true KR102167655B1 (en) | 2020-10-19 |
Family
ID=72885218
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190144442A Active KR102167655B1 (en) | 2019-11-12 | 2019-11-12 | Neural network training method for utilizing differences between a plurality of images, and method thereof |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102167655B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20220161597A (en) | 2021-05-27 | 2022-12-07 | 자이메드 주식회사 | Apparatus and method for predicting position informaiton according to movement of tool |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102571740B1 (en) | 2021-04-15 | 2023-08-29 | 주식회사 스카이시스 | Method for work management of trailer |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101854071B1 (en) | 2017-01-13 | 2018-05-03 | 고려대학교 산학협력단 | Method of generating image of interest region using deep learning and apparatus thereof |
US20190080450A1 (en) | 2017-09-08 | 2019-03-14 | International Business Machines Corporation | Tissue Staining Quality Determination |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101396308B1 (en) | 2013-05-14 | 2014-05-27 | 인하대학교 산학협력단 | A method for extracting morphological features for grading pancreatic ductal adenocarcinomas |
-
2019
- 2019-11-12 KR KR1020190144442A patent/KR102167655B1/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101854071B1 (en) | 2017-01-13 | 2018-05-03 | 고려대학교 산학협력단 | Method of generating image of interest region using deep learning and apparatus thereof |
US20190080450A1 (en) | 2017-09-08 | 2019-03-14 | International Business Machines Corporation | Tissue Staining Quality Determination |
Non-Patent Citations (4)
Title |
---|
Carneiro, Gustavo, Jacinto Nascimento, and Andrew P. Bradley. Automated analysis of unregistered multi-view mammograms with deep learning. IEEE transactions on medical imaging 36.11. 2017. |
Choi, Sungil, et al. Learning Descriptor, Confidence, and Depth Estimation in Multi-view Stereo. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition Workshops. 2018.6.* |
Geras, Krzysztof J., et al. High-resolution breast cancer screening with multi-view deep convolutional neural networks. arXiv preprint arXiv:1703.07047. 2017. |
Nie, D., Lu, J., Zhang, H. et al. Multi-Channel 3D Deep Feature Learning for Survival Time Prediction of Brain Tumor Patients Using Multi-Modal Neuroimages. Sci Rep 9, 1103. 2019.1. |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20220161597A (en) | 2021-05-27 | 2022-12-07 | 자이메드 주식회사 | Apparatus and method for predicting position informaiton according to movement of tool |
Also Published As
Publication number | Publication date |
---|---|
KR20200116842A (en) | 2020-10-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102046134B1 (en) | Neural network training method for utilizing differences between a plurality of images, and method thereof | |
KR102560911B1 (en) | Image processing apparatus, image processing method, and storage medium | |
EP3755204B1 (en) | Eye tracking method and system | |
JP6657132B2 (en) | Image classification device, method and program | |
US20200297237A1 (en) | Multi-Task Progressive Networks for Patient Modeling for Medical Scans | |
JP6525912B2 (en) | Image classification device, method and program | |
US10140726B2 (en) | Apparatus and method for estimating gazed position of person | |
CN110276411A (en) | Image classification method, device, equipment, storage medium and medical treatment electronic equipment | |
US10672145B2 (en) | Device for extracting three-dimensional information from X-ray images of an object, method for calibrating said device, and method for generating said X-ray images | |
US10949698B2 (en) | Image processing apparatus, image processing system, image processing method, and storage medium | |
EP3065072A1 (en) | Apparatus and method for providing reliability for computer aided diagnosis | |
KR102167655B1 (en) | Neural network training method for utilizing differences between a plurality of images, and method thereof | |
KR102680579B1 (en) | Presence or absence of lesion prediction method using 2 dimensional images extracted from 3 dimensional computed tomography image and analysis apparatus | |
CN110895812A (en) | CT image detection method and device, storage medium and electronic equipment | |
CN113380385A (en) | Image display method, device, equipment and storage medium | |
WO2019030348A1 (en) | X-ray image processing method and system and computer storage medium | |
JPWO2019155628A1 (en) | Image processing equipment, image processing method and image processing program | |
KR102593247B1 (en) | Geometric calibration method and apparatus of computer tomography | |
JP4416823B2 (en) | Image processing apparatus, image processing method, and computer program | |
US20180268547A1 (en) | Image processing apparatus, control method of image processing apparatus, and storage medium | |
CN111429406A (en) | Method and device for detecting breast X-ray image lesion by combining multi-view reasoning | |
US10373350B2 (en) | Apparatus and method for CT data reconstruction based on motion compensation | |
KR102593539B1 (en) | Apparauts, system, method and program for deciphering tomography image of common bile duct stone using artificial intelligence | |
CN115187505A (en) | Processing multiple 2-D projection images using neural network algorithms | |
JP2016171961A (en) | Image processing device, image processing method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PA0107 | Divisional application |
Comment text: Divisional Application of Patent Patent event date: 20191112 Patent event code: PA01071R01D Filing date: 20190402 Application number text: 1020190038145 |
|
PA0201 | Request for examination | ||
PE0701 | Decision of registration |
Patent event code: PE07011S01D Comment text: Decision to Grant Registration Patent event date: 20200810 |
|
GRNT | Written decision to grant | ||
PG1501 | Laying open of application | ||
PR0701 | Registration of establishment |
Comment text: Registration of Establishment Patent event date: 20201013 Patent event code: PR07011E01D |
|
PR1002 | Payment of registration fee |
Payment date: 20201013 End annual number: 3 Start annual number: 1 |
|
PG1601 | Publication of registration | ||
PR1001 | Payment of annual fee |
Payment date: 20230918 Start annual number: 4 End annual number: 4 |
|
PR1001 | Payment of annual fee |
Payment date: 20240919 Start annual number: 5 End annual number: 5 |