KR102535411B1 - 메트릭 학습 기반의 데이터 분류와 관련된 장치 및 그 방법 - Google Patents
메트릭 학습 기반의 데이터 분류와 관련된 장치 및 그 방법 Download PDFInfo
- Publication number
- KR102535411B1 KR102535411B1 KR1020170152974A KR20170152974A KR102535411B1 KR 102535411 B1 KR102535411 B1 KR 102535411B1 KR 1020170152974 A KR1020170152974 A KR 1020170152974A KR 20170152974 A KR20170152974 A KR 20170152974A KR 102535411 B1 KR102535411 B1 KR 102535411B1
- Authority
- KR
- South Korea
- Prior art keywords
- class
- learning
- electronic device
- anchor point
- feature
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/09—Supervised learning
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/02—Knowledge representation; Symbolic representation
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/7715—Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Biodiversity & Conservation Biology (AREA)
- Image Analysis (AREA)
Abstract
Description
도 2는 본 발명의 일 실시예에 따른 전자 장치의 하드웨어 구성도이다.
도 3은 종래 기술에 따른 메트릭 학습을 설명하기 위한 도면이다.
도 4는 본 발명의 몇몇 실시예들에 따른 전자 장치 또는 방법에 적용되는 개선된 성능의 메트릭 학습을 설명하기 위한 도면이다.
도 5는 본 발명의 몇몇 실시예들에 따른 전자 장치 또는 방법에 적용되는 개선된 성능의 메트릭 학습의 성능을, 종래 기술에 따른 분류 알고리즘과 비교하여 설명하기 위한 도면이다.
도 6은 본 발명의 몇몇 실시예들에 따른 전자 장치 또는 방법에 적용되는 개선된 성능의 메트릭 학습의 특징을 설명하기 위한 도면이다.
도 7은 본 발명의 몇몇 실시예들에 따른 전자 장치 또는 방법에 적용되는 메트릭 학습 과정에서, 두개의 앵커 포인트 간의 상대적 위치가 앵커 포인트 간의 시맨틱 관계에 따라 결정되는 점을 설명하기 위한 도면이다.
도 8은 본 발명의 몇몇 실시예들에 따른 전자 장치 또는 방법에 적용되는 시맨틱 관계가 반영된 메트릭 학습의 특징을 설명하기 위한 도면이다.
도 9는 본 발명의 몇몇 실시예들에 따른 전자 장치 또는 방법에 적용되는 메트릭 학습 과정에 있어서, 앵커 포인트의 업데이트가 수행되는 것을 설명하기 위한도면이다.
도 10 내지 도 11은 본 발명의 몇몇 실시예들에 따른 전자 장치 또는 방법에 적용되는 메트릭 학습 과정에 있어서, 앵커 포인트의 업데이트 및 임베딩 스페이스 업데이트 이후의 클러스터 위치 업데이트가 수행되는 것을 설명하기 위한도면이다.
도 12 내지 도 14는, 본 발명의 일 실시예에 따른 전자 장치의 메트릭 생성 프로그램의 동작 예시를 상세 설명하기 위한 도면이다.
도 15는, 본 발명의 다른 실시예에 따른 전자 장치의 하드웨어 구성도이다.
도 16은 도 15의 전자 장치의 장면 이해 동작을 설명하기 위한 개념도이다.
도 17은 본 발명의 또 다른 실시예에 따른 메트릭 학습 방법의 순서도이다.
도 18은 본 발명의 또 다른 실시예에 따른 객체 인식 모델 생성 방법의 순서도이다.
도 19는 본 발명의 또 다른 실시예에 따른 장면 이해 방법의 순서도이다.
Claims (23)
- 하나 이상의 인스트럭션이 저장되는 메모리; 및
상기 저장된 인스트럭션을 실행하는 프로세서를 포함하되,
상기 프로세서는,
제1 클래스의 트레이닝 데이터에서 특징 데이터를 추출하고,
상기 추출된 특징 데이터를 임베딩 공간에 매핑하여 특징 포인트를 얻으며,
상기 얻어진 특징 포인트와 앵커 포인트 간의 거리를 감소시키는 방향으로 인공 신경망을 학습시키되,
상기 앵커 포인트는 상기 제1 클래스의 대표 데이터에서 추출된 특징 데이터가 상기 임베딩 공간에 매핑된 것이며,
상기 제1 클래스의 앵커 포인트의 위치는 상기 제1 클래스 및 상기 제1 클래스와 다른 제2 클래스 사이의 시맨틱(semantic) 관계 정보를 반영하여 결정되고,
상기 제2 클래스의 앵커 포인트의 위치는 상기 제2 클래스 및 상기 제1 클래스 사이의 시맨틱(semantic) 관계 정보를 반영하여 결정되는,
전자 장치. - 제1 항에 있어서,
상기 인공 신경망을 학습 시키는 것은,
상기 제1 클래스의 트레이닝 데이터의 특징 포인트와 상기 앵커 포인트가 가까울 수록 손실이 적고, 상기 제1 클래스와 다른 제2 클래스의 트레이닝 데이터의 특징 포인트와 상기 앵커 포인트는 가까울 수록 손실이 큰 것으로 손실 값을 정의하는 손실 함수(loss function)을 이용하여 상기 인공 신경망을 학습시키는 것을 포함하는,
전자 장치. - 제1 항에 있어서,
상기 인공 신경망을 학습 시키는 것은,
상기 제1 클래스의 트레이닝 데이터의 특징 데이터를 추출하기 위한 CNN(Convolutional Neural Network) 레이어와, 상기 CNN 레이어에서 출력된 데이터를 입력 받아 상기 얻어진 특징 포인트와 상기 앵커 포인트 간의 거리를 구하기 위한 메트릭 학습 레이어를 일괄하여 학습시키는 것을 포함하는,
전자 장치. - 제1 항에 있어서,
상기 인공 신경망을 학습 시키는 것은,
상기 제1 클래스의 트레이닝 데이터의 특징 데이터를 추출하기 위한 CNN 레이어에서 출력된 데이터를 입력 받아 상기 얻어진 특징 포인트와 상기 앵커 포인트 간의 거리를 구하기 위한 메트릭 학습 레이어 만을 상기 CNN 레이어와 분리하여 학습시키는 것을 포함하는,
전자 장치. - 제1 항에 있어서,
상기 인공 신경망은, 상기 임베딩 공간 상에 형성된 클러스터 특징 데이터를 출력하는 메트릭 학습 레이어를 포함하고,
상기 인공 신경망을 학습 시키는 것은,
상기 메트릭 학습 레이어로부터 출력된 데이터를 입력 받아 각 클래스 별 컨피던스 레벨을 출력하는 단일 레이어로 구성된 객체 분류 레이어를 학습시키는 것을 포함하는,
전자 장치. - 제1 항에 있어서,
상기 인공 신경망을 학습 시키는 것은,
상기 제1 클래스의 트레이닝 데이터의 특징 포인트가 상기 제1 클래스의 앵커 포인트에 더 가까워지도록 하고, 동시에 제2 클래스의 트레이닝 데이터의 특징 포인트가 상기 임베딩 공간 상에서 상기 제2 클래스의 앵커 포인트에 더 가까워지도록 하는 방향으로 상기 인공 신경망을 학습 시키는 것을 포함하는,
전자 장치. - ◈청구항 7은(는) 설정등록료 납부시 포기되었습니다.◈제6 항에 있어서,
상기 시맨틱 관계 정보는,
상기 제1 클래스의 키워드와 상기 제2 클래스의 키워드 사이의 시맨틱 트리에서의 거리를 포함하되,
상기 시맨틱 트리는, 각 키워드 간 시맨틱 계층 관계가 반영된 것이고,
상기 제1 클래스의 키워드와 상기 제2 클래스의 키워드 사이의 상기 시맨틱 트리에서의 거리는 상기 제1 클래스의 키워드에 대응되는 제1 노드와 상기 제2 클래스의 키워드에 대응되는 제2 노드 사이의 노드의 수가 많을 수록 멀어지도록 세팅 되는,
전자 장치. - ◈청구항 8은(는) 설정등록료 납부시 포기되었습니다.◈제6 항에 있어서,
상기 인공 신경망을 학습 시키는 것은,
상기 제1 클래스와 상기 제2 클래스 사이의 상기 시맨틱 관계 정보를 반영하여, 제1 클래스 클러스터 및 제2 클래스 클러스터 중 적어도 하나의 상기 임베딩 공간 상의 위치를 업데이트 하는 것을 포함하되,
상기 제1 클래스 클러스터는 상기 제1 클래스의 특징 포인트 및 상기 제1 클래스의 앵커포인트로 구성된 것이고,
상기 제2 클래스 클러스터는 상기 제2 클래스의 특징 포인트 및 상기 제2 클래스의 앵커포인트로 구성된 것인,
전자 장치. - 제1 항에 있어서,
상기 인공 신경망을 학습 시키는 것은,
상기 제1 클래스의 특징 포인트를 반영하여 상기 앵커 포인트의 상기 임베딩 공간 상의 위치를 업데이트 하는 것과, 상기 제1 클래스의 특징 포인트와 상기 업데이트 된 앵커 포인트 사이의 거리를 감소시키는 방향으로 상기 인공 신경망을 학습시키는 것을 포함하는,
전자 장치. - ◈청구항 10은(는) 설정등록료 납부시 포기되었습니다.◈제9 항에 있어서,
상기 앵커 포인트의 상기 임베딩 공간 상의 위치를 업데이트 하는 것은,
학습 시작 시점부터 제1 횟수의 반복으로 구성되는 초기 학습에서는 상기 앵커 포인트의 위치 업데이트를 수행하지 않고, 상기 초기 학습 이후의 반복에서 상기 앵커 포인트의 위치 업데이트를 수행하는 것을 포함하는,
전자 장치. - ◈청구항 11은(는) 설정등록료 납부시 포기되었습니다.◈제10 항에 있어서,
상기 초기 학습 이후의 반복에서 상기 앵커 포인트의 위치 업데이트를 수행하는 것은,
상기 초기 학습 이후의 반복에서, 2 이상의 제2 횟수의 반복 마다 한번씩 상기 앵커 포인트의 위치 업데이트를 수행하는 것을 포함하는,
전자 장치. - ◈청구항 12은(는) 설정등록료 납부시 포기되었습니다.◈제10 항에 있어서,
상기 제1 횟수는,
상기 트레이닝 데이터의 타입이 제1 타입인 경우 제1 값으로 설정되고, 상기 트레이닝 데이터의 타입이 제2 타입인 경우 제2 값으로 설정되는,
전자 장치. - 하나 이상의 인스트럭션이 저장되는 메모리; 및
상기 저장된 인스트럭션을 실행하는 프로세서를 포함하되,
상기 프로세서는,
비디오의 현재 프레임에서 추출된 복수의 객체 각각의 특징 데이터를 가리키는 임베딩 공간 상의 특징 포인트들을 제1 결정하고,
복수의 클래스의 앵커 포인트들의 상기 임베딩 공간 상의 위치를, 각 클래스 사이의 시맨틱 관계 정보를 반영하여 제2 결정하고,
복수의 클래스의 앵커 포인트들의 상기 임베딩 공간 상의 위치를, 각각의 앵커 포인트에 인접한 특징 포인트들의 위치를 반영하여 제1 업데이트 하고,
상기 특징 포인트들 각각이, 위치가 업데이트된 상기 앵커 포인트들 중 최근접 앵커 포인트에 더 가까워지도록 하는 방향으로 인공 신경망을 학습시키고,
각각의 앵커 포인트 및 상기 앵커 포인트에 인접한 특징 포인트들로 구성된 클래스 별 클러스터의 상기 임베딩 공간 상의 위치를, 각각의 앵커 포인트가 가리키는 클래스 사이의 시맨틱 관계 정보를 반영하여 제2 업데이트 하고,
상기 현재 프레임을 다음으로 넘기면서 상기 제1 결정하는 것, 상기 제2 결정하는 것, 상기 제1 업데이트 하는 것, 상기 학습시키는 것 및 상기 제2 업데이트 하는 것을 반복하는,
전자 장치. - 제13 항에 있어서,
상기 프로세서는,
상기 학습 된 인공 신경망에 의한 상기 클래스 별 클러스터의 형성 결과에 대한 사용자 피드백을 얻고,
상기 사용자 피드백을 반영하여 상기 인공 신경망을 더 학습 시키는,
전자 장치. - 하나 이상의 인스트럭션이 저장되는 메모리; 및
상기 저장된 인스트럭션을 실행하는 프로세서를 포함하되,
상기 프로세서는,
임베딩 공간 상의 특징 포인트에 관련된 데이터를 출력하는 객체 인식 모델을 이용하여, 영상에서 추출된 복수의 객체 각각의 상기 임베딩 공간 상의 특징 포인트들을 얻고,
상기 특징 포인트들 중 적어도 일부에 가장 근접 한 앵커 포인트의 키워드를 이용하여 상기 영상의 장면을 이해하되,
상기 앵커 포인트는, 각 클래스 별 대표 이미지가 상기 임베딩 공간 상에 매핑된 것이고,
상기 임베딩 공간은, 상기 앵커 포인트 사이의 시맨틱(semantic) 관계를 반영하여 상기 앵커 포인트 사이의 거리가 산출되는 특징 공간인,
전자 장치. - 제15 항에 있어서,
상기 영상의 장면을 이해하는 것은,
상기 매핑된 특징 포인트들 각각에 가장 근접 한 하위 레벨 앵커 포인트를 선정하고,
상기 선정된 하위 레벨 앵커 포인트들 각각에 대응하는 시맨틱 트리의 노드들 중 적어도 일부의 상위 노드를 선정하고, 선정된 상위 노드에 대응되는 키워드를 이용하여 상기 영상의 장면을 이해하는 것을 포함하는,
전자 장치. - 제15 항에 있어서,
상기 영상의 장면을 이해하는 것은,
상기 매핑된 특징 포인트들 중 적어도 일부에 가장 근접 한 상위 레벨 앵커 포인트를 선정하고,
상기 선정된 상위 레벨 앵커 포인트에 대응하는 키워드를 이용하여 상기 영상의 장면을 이해하는 것을 포함하는,
전자 장치. - 제15 항에 있어서,
상기 프로세서는,
상기 객체 인식 모델을 상기 영상의 타입에 기반하여 선정하는,
전자 장치. - 제15 항에 있어서,
상기 프로세서는,
상기 객체 인식 모델을 상기 전자 장치의 사용자의 프로필 정보에 기반하여 선정하는,
전자 장치. - 제15 항에 있어서,
상기 프로세서는,
상기 객체 인식 모델을 응용 서비스 타입에 기반하여 선정하는,
전자 장치. - 제15 항에 있어서,
상기 프로세서는,
상기 이해된 장면에 대응 되는 추가 컨텐츠를 출력하는,
전자 장치. - 제15 항에 있어서,
상기 객체 인식 모델은 각 클래스의 키워드 간 시맨틱 계층 관계를 표현하는 시맨틱 트리를 이용하여 기계학습 된 결과로서 생성된 인공 신경망으로 구성되는,
전자 장치. - 전자 장치에 의하여 수행되는 방법에 있어서,
임베딩 공간 상의 특징 포인트에 관련된 데이터를 출력하는 객체 인식 모델을 이용하여, 영상에서 추출된 복수의 객체 각각의 상기 임베딩 공간 상의 특징 포인트들을 얻는 단계; 및
상기 특징 포인트들 중 적어도 일부에 가장 근접 한 앵커 포인트의 키워드를 이용하여 상기 영상의 장면을 이해하는 단계를 포함하되,
상기 앵커 포인트는, 각 클래스 별 대표 이미지가 상기 임베딩 공간 상에 매핑된 것이고,
상기 임베딩 공간은, 상기 앵커 포인트 사이의 시맨틱(semantic) 관계를 반영하여 상기 앵커 포인트 사이의 거리가 산출되는 특징 공간인,
방법.
Priority Applications (5)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020170152974A KR102535411B1 (ko) | 2017-11-16 | 2017-11-16 | 메트릭 학습 기반의 데이터 분류와 관련된 장치 및 그 방법 |
| PCT/KR2017/014840 WO2019098449A1 (ko) | 2017-11-16 | 2017-12-15 | 메트릭 학습 기반의 데이터 분류와 관련된 장치 및 그 방법 |
| EP17932563.4A EP3678064A4 (en) | 2017-11-16 | 2017-12-15 | APPARATUS RELATED TO A DATA CLASSIFICATION BASED ON METRIC LEARNING AND RELATED PROCESS |
| US16/760,181 US11568245B2 (en) | 2017-11-16 | 2017-12-15 | Apparatus related to metric-learning-based data classification and method thereof |
| CN201780096898.9A CN111373417B (zh) | 2017-11-16 | 2017-12-15 | 与基于度量学习的数据分类相关的设备及其方法 |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020170152974A KR102535411B1 (ko) | 2017-11-16 | 2017-11-16 | 메트릭 학습 기반의 데이터 분류와 관련된 장치 및 그 방법 |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| KR20190056009A KR20190056009A (ko) | 2019-05-24 |
| KR102535411B1 true KR102535411B1 (ko) | 2023-05-23 |
Family
ID=66539586
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| KR1020170152974A Active KR102535411B1 (ko) | 2017-11-16 | 2017-11-16 | 메트릭 학습 기반의 데이터 분류와 관련된 장치 및 그 방법 |
Country Status (5)
| Country | Link |
|---|---|
| US (1) | US11568245B2 (ko) |
| EP (1) | EP3678064A4 (ko) |
| KR (1) | KR102535411B1 (ko) |
| CN (1) | CN111373417B (ko) |
| WO (1) | WO2019098449A1 (ko) |
Families Citing this family (29)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US10997368B2 (en) * | 2018-03-26 | 2021-05-04 | Entigenlogic Llc | Resolving ambiguity in a statement |
| US11799664B2 (en) | 2018-03-26 | 2023-10-24 | Entigenlogic Llc | Verifying authenticity of content to produce knowledge |
| US11321530B2 (en) * | 2018-04-19 | 2022-05-03 | Entigenlogic Llc | Interpreting a meaning of a word string |
| US12493746B2 (en) | 2018-04-19 | 2025-12-09 | Entigenlogic Llc | Creating a superset of knowledge |
| US11537848B2 (en) * | 2018-07-26 | 2022-12-27 | Raytheon Company | Class level artificial neural network |
| US11200429B1 (en) * | 2018-12-28 | 2021-12-14 | Zoox, Inc. | Tracking objects using sensor data segmentations and/or representations |
| CN109754778B (zh) * | 2019-01-17 | 2023-05-30 | 平安科技(深圳)有限公司 | 文本的语音合成方法、装置和计算机设备 |
| US11893456B2 (en) | 2019-06-07 | 2024-02-06 | Cisco Technology, Inc. | Device type classification using metric learning in weakly supervised settings |
| US11475675B2 (en) * | 2019-07-08 | 2022-10-18 | Uatc, Llc | Systems and methods for identifying unknown instances |
| JP7351344B2 (ja) * | 2019-10-24 | 2023-09-27 | 日本電気株式会社 | 学習装置、学習方法、推論装置、推論方法、及び、プログラム |
| KR102635606B1 (ko) * | 2019-11-21 | 2024-02-13 | 고려대학교 산학협력단 | 거리 학습을 이용한 사용자간 유사도 반영 특징 추출 기반의 사용자 독립적 뇌-컴퓨터 인터페이스 장치 및 이를 이용한 태스크 분류 방법 |
| KR102150720B1 (ko) * | 2020-01-03 | 2020-09-02 | 주식회사 스타일쉐어 | 유저 클러스터링을 위한 패션 콘텐츠 임베딩 장치 및 방법 |
| KR102737990B1 (ko) * | 2020-01-23 | 2024-12-05 | 삼성전자주식회사 | 음성 데이터를 이용하여 챗봇과 관련된 인공지능 모델을 학습시키는 전자 장치 및 방법 |
| KR102140805B1 (ko) | 2020-05-06 | 2020-08-03 | 국방과학연구소 | 위성 영상의 물체 식별을 위한 뉴럴 네트워크 학습 방법 및 장치 |
| CN111797893B (zh) * | 2020-05-26 | 2021-09-14 | 华为技术有限公司 | 一种神经网络的训练方法、图像分类系统及相关设备 |
| WO2022099136A1 (en) * | 2020-11-09 | 2022-05-12 | Canon U.S.A., Inc. | Label-dependent loss function for discrete ordered regression model |
| KR102577342B1 (ko) * | 2021-01-20 | 2023-09-11 | 네이버 주식회사 | 거리 지표 학습을 위해 메모리 기반의 가상 클래스로 학습하는 컴퓨터 시스템 및 그의 방법 |
| KR102705824B1 (ko) * | 2021-01-28 | 2024-09-10 | 주식회사 카카오엔터프라이즈 | 이미지 학습을 수행하는 장치, 프로그램 및 그것의 제어 방법 |
| CN112560876B (zh) * | 2021-02-23 | 2021-05-11 | 中国科学院自动化研究所 | 解耦度量的单阶段小样本目标检测方法 |
| CN112949476B (zh) * | 2021-03-01 | 2023-09-29 | 苏州美能华智能科技有限公司 | 基于图卷积神经网络的文本关系检测方法、装置及存储介质 |
| KR20230119464A (ko) | 2022-02-07 | 2023-08-16 | 한국전자통신연구원 | 계층적 다중 레이블 기반 단계별 심층신경망 척도 학습 및 이를 이용한 퓨샷 추론 방법, 서버 및 시스템 |
| KR102765662B1 (ko) * | 2022-06-29 | 2025-02-12 | 주식회사 페블러스 | 데이터 클리닉 방법, 데이터 클리닉 방법이 저장된 컴퓨터 프로그램 및 데이터 클리닉 방법을 수행하는 컴퓨팅 장치 |
| US11748447B1 (en) | 2022-06-29 | 2023-09-05 | Pebblous Inc. | Data clinic method, computer program storing data clinic method, and computing device for performing data clinic method |
| CN115240249B (zh) * | 2022-07-07 | 2023-06-06 | 湖北大学 | 人脸识别的特征提取分类度量学习方法、系统及存储介质 |
| KR102681566B1 (ko) * | 2023-03-10 | 2024-07-05 | 한국철도기술연구원 | 메모리 성능이 개선된 객체 인식 및 추적 방법과 이를 수행하는 자율주행 로봇 |
| CN116109907B (zh) * | 2023-04-17 | 2023-08-18 | 成都须弥云图建筑设计有限公司 | 目标检测方法、装置、电子设备及存储介质 |
| CN116680427B (zh) * | 2023-05-25 | 2026-01-16 | 华南理工大学 | 一种基于锚点的密集嵌入生成方法、装置和存储介质 |
| KR20250011415A (ko) | 2023-07-14 | 2025-01-21 | 고려대학교 산학협력단 | 신뢰 네트워크 상에서의 사회적 협업 메트릭 학습에 기반한 추천 장치 및 방법 |
| CN119169405B (zh) * | 2024-06-19 | 2025-08-26 | 粤港澳大湾区(广东)国创中心 | 多模态融合微调训练方法、装置、电子设备以及可读存储介质 |
Citations (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20170228641A1 (en) * | 2016-02-04 | 2017-08-10 | Nec Laboratories America, Inc. | Distance metric learning with n-pair loss |
Family Cites Families (22)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPS5223647A (en) | 1975-08-18 | 1977-02-22 | Tohoku Metal Ind Ltd | Life testing device for reed switch |
| JP4241709B2 (ja) | 2005-10-11 | 2009-03-18 | ソニー株式会社 | 画像処理装置 |
| KR100771244B1 (ko) | 2006-06-12 | 2007-10-29 | 삼성전자주식회사 | 동영상 데이터 처리 방법 및 장치 |
| KR20090119640A (ko) | 2008-05-16 | 2009-11-19 | 엘지전자 주식회사 | 이미지의 선호도 표시 장치 및 방법 |
| US8650138B2 (en) | 2008-11-26 | 2014-02-11 | Nec Corporation | Active metric learning device, active metric learning method, and active metric learning program |
| KR101646669B1 (ko) | 2009-06-24 | 2016-08-08 | 삼성전자주식회사 | 사용자 패턴을 이용한 구도 데이터베이스 업데이트 방법 및 장치, 및 디지털 촬영 장치 |
| KR20100077136A (ko) | 2010-06-16 | 2010-07-07 | (주)위디랩 | 디지털 동영상 컨텐츠의 유사도 측정 방법, 이를 이용한 동영상 컨텐츠의 관리 방법 및 상기 관리 방법을 이용한 동영상 컨텐츠의 관리 시스템 |
| JP5548655B2 (ja) | 2011-06-30 | 2014-07-16 | ヤフー株式会社 | 画像検索装置、画像検索システム、画像検索方法、及び画像検索プログラム |
| EP2629247B1 (en) | 2012-02-15 | 2014-01-08 | Alcatel Lucent | Method for mapping media components employing machine learning |
| US20130239063A1 (en) | 2012-03-06 | 2013-09-12 | Apple Inc. | Selection of multiple images |
| HUE030528T2 (en) | 2012-03-15 | 2017-05-29 | Cortical Io Gmbh | Process, equipment and product for semantic processing of texts |
| US8818037B2 (en) | 2012-10-01 | 2014-08-26 | Microsoft Corporation | Video scene detection |
| WO2016100717A1 (en) * | 2014-12-17 | 2016-06-23 | Google Inc. | Generating numeric embeddings of images |
| US9436876B1 (en) | 2014-12-19 | 2016-09-06 | Amazon Technologies, Inc. | Video segmentation techniques |
| JP6596516B2 (ja) * | 2015-05-22 | 2019-10-23 | 華為技術有限公司 | 人工ニューラルネットワークの測位性能を改善するための方法および装置 |
| US10115032B2 (en) * | 2015-11-04 | 2018-10-30 | Nec Corporation | Universal correspondence network |
| EP3336774B1 (en) * | 2016-12-13 | 2020-11-25 | Axis AB | Method, computer program product and device for training a neural network |
| CN107122396B (zh) * | 2017-03-13 | 2019-10-29 | 西北大学 | 基于深度卷积神经网络的三维模型检索方法 |
| CN107680582B (zh) * | 2017-07-28 | 2021-03-26 | 平安科技(深圳)有限公司 | 声学模型训练方法、语音识别方法、装置、设备及介质 |
| US10515295B2 (en) * | 2017-10-27 | 2019-12-24 | Adobe Inc. | Font recognition using triplet loss neural network training |
| US10515296B2 (en) * | 2017-11-14 | 2019-12-24 | Adobe Inc. | Font recognition by dynamically weighting multiple deep learning neural networks |
| CN110288978B (zh) * | 2018-10-25 | 2022-08-30 | 腾讯科技(深圳)有限公司 | 一种语音识别模型训练方法及装置 |
-
2017
- 2017-11-16 KR KR1020170152974A patent/KR102535411B1/ko active Active
- 2017-12-15 WO PCT/KR2017/014840 patent/WO2019098449A1/ko not_active Ceased
- 2017-12-15 EP EP17932563.4A patent/EP3678064A4/en active Pending
- 2017-12-15 US US16/760,181 patent/US11568245B2/en active Active
- 2017-12-15 CN CN201780096898.9A patent/CN111373417B/zh active Active
Patent Citations (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20170228641A1 (en) * | 2016-02-04 | 2017-08-10 | Nec Laboratories America, Inc. | Distance metric learning with n-pair loss |
Also Published As
| Publication number | Publication date |
|---|---|
| CN111373417B (zh) | 2024-04-26 |
| US11568245B2 (en) | 2023-01-31 |
| KR20190056009A (ko) | 2019-05-24 |
| US20200257975A1 (en) | 2020-08-13 |
| WO2019098449A1 (ko) | 2019-05-23 |
| EP3678064A4 (en) | 2020-12-09 |
| CN111373417A (zh) | 2020-07-03 |
| EP3678064A1 (en) | 2020-07-08 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| KR102535411B1 (ko) | 메트릭 학습 기반의 데이터 분류와 관련된 장치 및 그 방법 | |
| US10628527B2 (en) | Automatically cross-linking application programming interfaces | |
| KR102532749B1 (ko) | 약한 지도 학습에 기초한 뉴럴 네트워크의 계층적 학습 방법 및 장치 | |
| US11210470B2 (en) | Automatic text segmentation based on relevant context | |
| JP7776227B2 (ja) | ユーザに対して誘導指示を推奨するためのシステム、方法、およびコンピュータプログラム(対話中のユーザ挙動に基づく自己学習型人工知能音声応答) | |
| US11381651B2 (en) | Interpretable user modeling from unstructured user data | |
| EP3069302B1 (en) | Memory facilitation using directed acyclic graphs | |
| KR102607208B1 (ko) | 뉴럴 네트워크 학습 방법 및 디바이스 | |
| KR102354592B1 (ko) | 스트리밍 데이터 기반 영상 편집점 추천 방법, 서버 및 컴퓨터프로그램 | |
| US20190034814A1 (en) | Deep multi-task representation learning | |
| US10762678B2 (en) | Representing an immersive content feed using extended reality based on relevancy | |
| US11360927B1 (en) | Architecture for predicting network access probability of data files accessible over a computer network | |
| CN120677487A (zh) | 训练动态混合人工智能网络 | |
| US11366989B2 (en) | Negative sampling algorithm for enhanced image classification | |
| CN111434118A (zh) | 用户感兴趣信息生成的装置和方法 | |
| KR102564182B1 (ko) | 인공지능 모델을 활용하여 영상 데이터 기반 얼굴 표정 영상 추출 및 이를 활용한 콘텐츠 생성 방법, 장치 및 시스템 | |
| KR102354593B1 (ko) | 사용자 데이터베이스 구축과 머신러닝을 통한 영상 편집 타입 구분 및 편집점 추천 알고리즘 고도화 방법, 서버 및 컴퓨터프로그램 | |
| KR102620852B1 (ko) | 인공지능 기반 폴리 사운드 제공 장치 및 방법 | |
| Meng et al. | Cross-datasets facial expression recognition via distance metric learning and teacher-student model | |
| Sanghi | Introduction to reinforcement learning | |
| KR102425239B1 (ko) | 사용자 데이터 기반 딥러닝을 통한 추천 편집점 정교화 방법, 서버 및 컴퓨터프로그램 | |
| EP4405828A1 (en) | Cognitive image searching based on personalized image components of a composite image | |
| Kico et al. | Towards efficient human action retrieval based on triplet-loss metric learning | |
| US20250384652A1 (en) | Grounded prompting and adaptation for referring video object segmentation | |
| Dibot et al. | Generation and Editing of Mandrill Faces: Application to Sex Editing and Assessment |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20171116 |
|
| PG1501 | Laying open of application | ||
| A201 | Request for examination | ||
| PA0201 | Request for examination |
Patent event code: PA02012R01D Patent event date: 20201013 Comment text: Request for Examination of Application Patent event code: PA02011R01I Patent event date: 20171116 Comment text: Patent Application |
|
| E902 | Notification of reason for refusal | ||
| PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20221031 Patent event code: PE09021S01D |
|
| E701 | Decision to grant or registration of patent right | ||
| PE0701 | Decision of registration |
Patent event code: PE07011S01D Comment text: Decision to Grant Registration Patent event date: 20230504 |
|
| GRNT | Written decision to grant | ||
| PR0701 | Registration of establishment |
Comment text: Registration of Establishment Patent event date: 20230517 Patent event code: PR07011E01D |
|
| PR1002 | Payment of registration fee |
Payment date: 20230518 End annual number: 3 Start annual number: 1 |
|
| PG1601 | Publication of registration |