KR20200031163A - 신경 네트워크 구조의 생성 방법 및 장치, 전자 기기, 저장 매체 - Google Patents
신경 네트워크 구조의 생성 방법 및 장치, 전자 기기, 저장 매체 Download PDFInfo
- Publication number
- KR20200031163A KR20200031163A KR1020207005617A KR20207005617A KR20200031163A KR 20200031163 A KR20200031163 A KR 20200031163A KR 1020207005617 A KR1020207005617 A KR 1020207005617A KR 20207005617 A KR20207005617 A KR 20207005617A KR 20200031163 A KR20200031163 A KR 20200031163A
- Authority
- KR
- South Korea
- Prior art keywords
- network
- neural network
- sampling
- accuracy
- layer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 367
- 238000000034 method Methods 0.000 title claims abstract description 93
- 238000005070 sampling Methods 0.000 claims abstract description 237
- 238000012549 training Methods 0.000 claims abstract description 78
- 230000004044 response Effects 0.000 claims abstract description 34
- 230000006870 function Effects 0.000 claims description 32
- 238000012545 processing Methods 0.000 claims description 25
- 239000013598 vector Substances 0.000 claims description 25
- 238000004891 communication Methods 0.000 claims description 14
- 238000011176 pooling Methods 0.000 claims description 14
- 238000004422 calculation algorithm Methods 0.000 claims description 13
- 230000001537 neural effect Effects 0.000 claims description 7
- 210000005036 nerve Anatomy 0.000 claims description 4
- 238000004364 calculation method Methods 0.000 claims description 2
- 230000002787 reinforcement Effects 0.000 abstract description 6
- 238000013461 design Methods 0.000 abstract description 5
- 230000001172 regenerating effect Effects 0.000 abstract 1
- 238000005516 engineering process Methods 0.000 description 8
- 238000004590 computer program Methods 0.000 description 6
- 239000003795 chemical substances by application Substances 0.000 description 5
- 238000010586 diagram Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 239000000284 extract Substances 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000003542 behavioural effect Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000007667 floating Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000012804 iterative process Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000013178 mathematical model Methods 0.000 description 1
- 238000002715 modification method Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G06N3/0454—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G06N3/0472—
-
- G06N3/0481—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/004—Artificial life, i.e. computing arrangements simulating life
- G06N3/006—Artificial life, i.e. computing arrangements simulating life based on simulated virtual individual or collective life forms, e.g. social simulations or particle swarm optimisation [PSO]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Probability & Statistics with Applications (AREA)
- Feedback Control In General (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Image Analysis (AREA)
Abstract
Description
도면을 참조하고, 이하의 상세한 설명을 통해 본 출원을 더욱 명확히 이해할 것이다.
도 1은 본 출원의 신경 네트워크 구조의 생성 방법에 따른 실시예의 흐름도이다.
도 2는 본 출원의 실시예에서 네트워크 계층에 기반하여 형성된 네트워크 블록 구조 예시도이다.
도 3은 본 출원 실시예에서 네트워크 계층에 기반하여 형성된 다른 하나의 네트워크 블록 구조 예시도이다.
도 4는 본 출원의 방법에 따라 형성된 분산식 시스템 구조 예시도이다.
도 5는 본 출원의 신경 네트워크 구조의 생성 장치에 따른 실시예의 구조 예시도이다.
도 6은 본 출원 전자 기기에 따른 실시예의 구조 예시도이다.
Claims (25)
- 신경 네트워크 구조의 생성 방법으로서,
신경 네트워크 구조에 대해 샘플링을 진행하여, 네트워크 블록을 생성하는 단계 - 상기 네트워크 블록은 적어도 하나의 네트워크 계층을 포함함 - ;
상기 네트워크 블록에 기반하여 샘플링 신경 네트워크를 형성하는 단계;
샘플 데이터에 기반하여 상기 샘플링 신경 네트워크에 대해 훈련을 진행하고, 상기 샘플링 신경 네트워크에 대응되는 정확도를 얻는 단계; 및
상기 정확도가 기설정된 조건을 충족시키지 못하는 것에 응답하여, 새로운 네트워크 블록에 의해 형성된 샘플링 신경 네트워크가 기설정된 조건을 충족시킬 때까지, 상기 정확도에 따라 새로운 네트워크 블록을 재차 생성하고, 기설정된 조건을 충족시키는 샘플링 신경 네트워크를 타겟 신경 네트워크로서 사용하는 단계를 포함하는 것을 특징으로 하는 신경 네트워크 구조의 생성 방법. - 제1항에 있어서,
상기 신경 네트워크 구조에 대해 샘플링을 진행하여, 네트워크 블록을 생성하는 단계는,
하나의 확률 벡터에 기반하여 신경 네트워크 구조에 대해 샘플링을 진행하여, 적어도 한 가지의 네트워크 계층, 상기 적어도 한 가지의 네트워크 계층에 대응되는 네트워크 파라미터 및 상기 적어도 한 가지의 네트워크 사이의 연결 방식을 획득하고, 상기 적어도 한 가지의 네트워크 계층을 스태킹하여 한 가지의 네트워크 블록을 획득하는 단계를 포함하는 것을 특징으로 하는 신경 네트워크 구조의 생성 방법. - 제1항 또는 제2항에 있어서,
상기 네트워크 계층은,
컨볼루션 계층, 최대 풀링 계층, 평균 풀링 계층, 아이덴티티 계층, 특징 추가 계층 및 연결 계층 중 적어도 하나 또는 복수 개를 포함하는 것을 특징으로 하는 신경 네트워크 구조의 생성 방법. - 제2항 또는 제3항에 있어서,
상기 적어도 한 가지의 네트워크 계층을 스태킹하여 한 가지의 네트워크 블록을 획득하는 단계는,
샘플링으로 획득된 네트워크 계층을 분석하여, 적어도 한 가지의 상기 네트워크 계층의 타입, 적어도 한 타입의 상기 네트워크 계층의 수량 및 적어도 한 가지의 상기 네트워크 계층의 연결 순서를 얻는 단계; 및
획득된 상기 네트워크 계층을 상기 적어도 한 가지의 네트워크 계층에 대응되는 연결 순서에 따라, 상기 적어도 한 가지의 네트워크 계층 사이의 연결 관계를 통해 연결하여 한 가지의 네트워크 블록을 획득하는 단계를 포함하는 것을 특징으로 하는 신경 네트워크 구조의 생성 방법. - 제1항 내지 제4항 중 어느 한 항에 있어서,
상기 정확도에 따라 새로운 네트워크를 재차 생성하는 단계는,
상기 샘플링 신경 네트워크에 대응되는 정확도에 따라 신경 네트워크 구조에 대해 샘플링을 진행하는 확률 벡터를 조정하고, 조정된 확률 벡터를 통해 신경 네트워크 구조에 대해 샘플링을 진행하여, 새로운 한 가지의 네트워크 블록을 생성하는 단계를 포함하는 것을 특징으로 하는 신경 네트워크 구조의 생성 방법. - 제1항 내지 제5항 중 어느 한 항에 있어서,
상기 샘플 데이터에 기반하여 상기 샘플링 신경 네트워크에 대해 훈련을 진행하는 단계는,
상기 샘플링 신경 네트워크를 이용하여 상기 샘플 데이터에 대해 처리를 진행하여, 처리 결과를 획득하는 단계;
손실 함수를 이용하여, 상기 샘플 데이터의 태깅된 감독 정보와 상기 처리 결과 사이의 오차값을 계산하는 단계 - 상기 샘플 데이터는 감독 정보가 태깅되어 있음 - ; 및
상기 오차값에 기반하여 상기 샘플링 신경 네트워크가 수렴 조건을 충족시킬 때까지 상기 샘플링 신경 네트워크에 대해 훈련을 진행하는 단계를 포함하는 것을 특징으로 하는 신경 네트워크 구조의 생성 방법. - 제6항에 있어서,
상기 오차값에 기반하여 상기 샘플링 신경 네트워크가 수렴 조건을 충족시킬 때까지 상기 샘플링 신경 네트워크에 대해 훈련을 진행하는 단계는,
상기 손실 함수의 수렴 속도가 기설정된 값보다 크거나 같은 것에 응답하여, 획득된 오차값에 따라, 조정된 신경 네트워크에 대응되는 손실 함수의 수렴 속도가 기설정된 값보다 작을 때까지, 역 기울기 알고리즘을 통해 상기 샘플링 신경 네트워크에서의 파라미터를 조정하여, 조정된 샘플링 신경 네트워크를 얻는 단계를 포함하는 것을 특징으로 하는 신경 네트워크 구조의 생성 방법. - 제6항에 있어서,
상기 오차값에 기반하여 상기 샘플링 신경 네트워크가 수렴 조건을 만족시킬 때까지 상기 샘플링 신경 네트워크에 대해 훈련을 진행하는 단계는,
상기 손실 함수가 오차값을 계산하는 횟수가 기설정된 값보다 작은 것에 응답하여, 획득된 오차값에 따라, 조정된 신경 네트워크에 대응되는 손실 함수가 오차값을 계산하는 횟수가 기설정된 값보다 크거나 같을 때까지 역 기울기 알고리즘을 통해 상기 샘플링 신경 네트워크에서의 파라미터를 조정하여, 조정된 샘플링 신경 네트워크를 얻고, 상기 손실 함수가 오차값을 계산하는 횟수를 1추가하는 단계를 포함하는 것을 특징으로 하는 신경 네트워크 구조의 생성 방법. - 제6항 내지 제8항 중 어느 한 항에 있어서,
상기 샘플링 신경 네트워크에 대응되는 정확도를 얻는 단계는,
훈련 완료한 상기 샘플링 신경 네트워크의 오차값에 따라 상기 샘플링 신경 네트워크의 예측 정확도를 계산하는 단계; 및
상기 예측 정확도에 기반하여, 기설정된 비례의 네트워크 계산 복잡도 및 기설정된 비례의 네트워크 밀도를 감소시켜, 상기 샘플링 신경 네트워크에 대응되는 정확도를 얻는 단계 - 상기 네트워크 계산 복잡도 및 상기 네트워크 밀도는 상기 샘플링 신경 네트워크에 대응됨 - 를 포함하는 것을 특징으로 하는 신경 네트워크 구조의 생성 방법. - 제1항 내지 제9항 중 어느 한 항에 있어서,
상기 신경 네트워크 구조에 대해 샘플링을 진행하여, 네트워크 블록을 생성하는 단계는,
신경 네트워크 구조에 대해 샘플링을 진행하여, n 가지의 네트워크 블록을 생성하는 단계 - 상기 n은 0보다 큰 자연수임 - 를 포함하며,
상응되게, 상기 네트워크 블록에 기반하여 샘플링 신경 네트워크를 형성하는 단계는,
상기 n 가지의 네트워크 블록에 각각 기반하여 n 개의 샘플링 신경 네트워크를 형성하는 단계를 포함하며,
상응되게, 상기 샘플 데이터에 기반하여 상기 샘플링 신경 네트워크에 대해 훈련을 진행하고, 상기 샘플링 신경 네트워크에 대응되는 정확도를 얻는 단계는,
샘플 데이터에 기반하여 각각 상기 n 개의 샘플링 신경 네트워크에 대해 훈련을 진행하고, 상기 n 개의 샘플링 신경 네트워크에 대응되는 n 개의 정확도를 얻는 단계를 포함하며,
상응되게, 상기 정확도가 기설정된 조건을 충족시키지 못하는 것에 응답하여, 새로운 네트워크 블록에 의해 형성된 샘플링 신경 네트워크가 기설정된 조건을 충족시킬 때까지, 상기 정확도에 따라 새로운 네트워크 블록을 재차 생성하고, 기설정된 조건을 충족시키는 샘플링 신경 네트워크를 타겟 신경 네트워크로서 사용하는 단계는,
상기 n 개의 정확도에 기설정된 조건을 충족시키는 정확도가 존재하지 않는 것에 응답하여, 새로운 n 가지의 네트워크 블록에 의해 각각 형성된 n 개의 샘플링 신경 네트워크가 기설정된 조건을 충족시키는 신경 네트워크가 존재할 때까지, 각각 상기 n 개의 정확도에 따라 새로운 n 가지의 네트워크 블록을 재차 생성하고, 기설정된 조건을 충족시키는 샘플링 신경 네트워크를 타겟 신경 네트워크로서 사용하는 단계를 포함하는 것을 특징으로 하는 신경 네트워크 구조의 생성 방법. - 제1항에 있어서,
상기 샘플링 신경 네트워크에 대응되는 정확도를 얻은 후, 상기 방법은,
상기 정확도가 기설정된 조건을 충족시키는 것에 응답하여, 기설정된 조건을 충족시키는 샘플링 신경 네트워크를 타겟 신경 네트워크로서 사용하는 단계; 또는
상기 정확도가 기설정된 조건을 충족시키지 못하고, 상기 신경 네트워크 구조에 대해 샘플링하는 횟수가 이미 기설정된 횟수에 도달한 것에 응답하여, 현재의 샘플링 신경 네트워크를 타겟 신경 네트워크로서 사용하는 단계를 더 포함하는 것을 특징으로 하는 신경 네트워크 구조의 생성 방법. - 신경 네트워크 구조의 생성 장치로서,
신경 네트워크 구조에 대해 샘플링을 진행하여, 네트워크 블록을 생성하기 위한 샘플링 유닛 - 상기 네트워크 블록은 적어도 하나의 네트워크 계층을 포함함 - ;
상기 네트워크 블록에 기반하여 샘플링 신경 네트워크를 형성하기 위한 네트워크 형성 유닛;
샘플 데이터에 기반하여 상기 샘플링 신경 네트워크에 대해 훈련을 진행하고, 상기 샘플링 신경 네트워크에 대응되는 정확도를 얻기 위한 훈련 유닛; 및
상기 정확도가 기설정된 조건을 충족시키지 못하는 것에 응답하여, 새로운 네트워크 블록에 의해 형성된 샘플링 신경 네트워크가 기설정된 조건을 충족시킬 때까지, 상기 정확도에 따라 새로운 네트워크 블록을 재차 생성하고, 기설정된 조건을 충족시키는 샘플링 신경 네트워크를 타겟 신경 네트워크로서 사용하기 위한 네트워크 출력 유닛을 포함하는 것을 특징으로 하는 신경 네트워크 구조의 생성 장치. - 제12항에 있어서,
상기 샘플링 유닛은,
하나의 확률 벡터에 기반하여 신경 네트워크 구조에 대해 샘플링을 진행하여, 적어도 한 가지의 네트워크 계층, 상기 적어도 한 가지의 네트워크 계층에 대응되는 네트워크 파라미터 및 상기 적어도 한 가지의 네트워크 계층 사이의 연결 방식을 획득하기 위한 확률 샘플링 모듈; 및
상기 적어도 한 가지의 네트워크 계층을 스태킹하여 한 가지의 네트워크 블록을 획득하기 위한 네트워크 블록 생성 모듈을 포함하는 것을 특징으로 하는 신경 네트워크 구조의 생성 장치. - 제12항 또는 제13항에 있어서,
상기 네트워크 계층은,
컨볼루션 계층, 최대 풀링 계층, 평균 풀링 계층, 아이덴티티 계층, 특징 추가 계층 및 연결 계층 중 임의의 하나 또는 복수 개를 포함하는 것을 특징으로 하는 신경 네트워크 구조의 생성 장치. - 제13항 또는 제14항에 있어서,
상기 네트워크 블록 생성 모듈은, 구체적으로 샘플링으로 획득된 네트워크 계층을 분석하여, 적어도 한 가지의 상기 네트워크 계층의 타입, 적어도 한 타입의 상기 네트워크 계층의 수량 및 적어도 한 가지의 상기 네트워크 계층의 연결 순서를 얻고; 획득된 상기 네트워크 계층을 상기 적어도 한 가지의 네트워크 계층에 대응되는 연결 순서에 따라, 상기 적어도 한 가지의 네트워크 계층 사이의 연결 관계를 통해 연결하여 한 가지의 네트워크 블록을 획득하기 위한 것임을 특징으로 하는 신경 네트워크 구조의 생성 장치. - 제12항 내지 제15항 중 어느 한 항에 있어서,
상기 네트워크 출력 유닛은, 상기 샘플링 신경 네트워크에 대응되는 정확도에 따라 신경 네트워크 구조에 대해 샘플링을 진행하는 확률 벡터를 조정하고, 조정된 확률 벡터를 통해 신경 네트워크 구조에 대해 샘플링하여, 새로운 한 가지의 네트워크 블록을 생성하기 위한 것임을 특징으로 하는 신경 네트워크 구조의 생성 장치. - 제12항 내지 제16항 중 어느 한 항의 장치에 있어서,
상기 훈련 유닛은,
상기 샘플링 신경 네트워크를 이용하여 상기 샘플 데이터에 대해 처리를 진행하여, 처리 결과를 획득하기 위한 네트워크 처리 모듈;
손실 함수를 이용하여, 상기 샘플 데이터의 태깅된 감독 정보와 상기 처리 결과 사이의 오차값을 계산하기 위한 오차 계산 모듈 - 상기 샘플 데이터는 감독 정보가 태깅되어 있음 - ; 및
상기 오차값에 기반하여 상기 샘플링 신경 네트워크가 수렴 조건을 충족시킬 때까지 상기 샘플링 신경 네트워크에 대해 훈련을 진행하기 위한 네트워크 훈련 모듈을 포함하는 것을 특징으로 하는 신경 네트워크 구조의 생성 장치. - 제17항에 있어서,
상기 네트워크 훈련 모듈은 구체적으로,
상기 손실 함수의 수렴 속도가 기설정된 값보다 크거나 같은 것에 응답하여, 획득된 오차값에 따라, 조정된 신경 네트워크에 대응되는 손실 함수의 수렴 속도가 기설정된 값보다 작을 때까지, 역 기울기 알고리즘을 통해 상기 샘플링 신경 네트워크에서의 파라미터를 조정하여, 조정된 샘플링 신경 네트워크를 얻기 위한 것임을 특징으로 하는 신경 네트워크 구조의 생성 장치. - 제17항에 있어서,
상기 네트워크 훈련 모듈은 구체적으로,
상기 손실 함수가 오차값을 계산하는 횟수가 기설정된 값보다 작은 것에 응답하여, 획득된 오차값에 따라, 조정된 신경 네트워크에 대응되는 손실 함수가 오차값을 계산하는 횟수가 기설정된 값보다 크거나 같아질 때까지, 역 기울기 알고리즘을 통해 상기 샘플링 신경 네트워크에서의 파라미터를 조정하여, 조정된 샘플링 신경 네트워크를 얻고, 상기 손실 함수가 오차값을 계산하는 횟수를 1 추가하기 위한 것임을 특징으로 하는 신경 네트워크 구조의 생성 장치. - 제17항 내지 제19항 중 어느 한 항에 있어서,
상기 훈련 유닛은,
훈련 완료한 상기 샘플링 신경 네트워크의 오차값에 따라 상기 샘플링 신경 네트워크의 예측 정확도를 계산하기 위한 정확도 예측 모듈; 및
상기 예측 정확도에 기반하여, 기설정된 비례의 네트워크 계산 복잡도 및 기설정된 비례의 네트워크 밀도를 감소시켜, 상기 샘플링 신경 네트워크에 대응되는 정확도를 얻기 위한 정확도 조정 모듈 - 상기 네트워크 계산 복잡도 및 상기 네트워크 밀도는 상기 샘플링 신경 네트워크에 대응됨 - 을 더 포함하는 것을 특징으로 하는 신경 네트워크 구조의 생성 장치. - 제12항 내지 제20항 중 어느 한 항에 있어서,
상기 샘플링 유닛은, 구체적으로 신경 네트워크 구조에 대해 샘플링을 진행하여, n 가지의 네트워크 블록을 생성하기 위한 것이며, 상기 n은 0보다 큰 자연수이며,
상기 네트워크 형성 유닛은, 구체적으로 상기 n 가지의 네트워크 블록에 각각 기반하여 n 개의 샘플링 신경 네트워크를 형성하기 위한 것이며,
상기 훈련 유닛은, 구체적으로 샘플 데이터에 기반하여 상기 n 개의 샘플링 신경 네트워크에 대해 각각 훈련을 진행하고, 상기 n 개의 샘플링 신경 네트워크에 대응되는 n 개의 정확도를 얻기 위한 것이며,
상기 네트워크 출력 유닛은, 상기 n 개의 정확도에 기설정된 조건을 충족시키는 정확도가 존재하지 않는 것에 응답하여, 새로운 n 가지의 네트워크 블록에 의해 각각 형성된 n 개의 샘플링 신경 네트워크에 기설정된 조건을 충족시키는 신경 네트워크가 존재할 때까지, 각각 상기 n 개의 정확도에 따라 새로운 n 가지의 네트워크 블록을 재차 생성하고, 기설정된 조건을 충족시키는 샘플링 신경 네트워크를 타겟 신경 네트워크로서 사용하기 위한 것임을 특징으로 하는 신경 네트워크 구조의 생성 장치. - 제12항에 있어서,
상기 신경 네트워크 구조의 생성 장치는,
상기 정확도가 기설정된 조건을 충족시키는 것에 응답하여, 기설정된 조건을 충족시키는 샘플링 신경 네트워크를 타겟 신경 네트워크로서 사용하거나;
상기 정확도가 기설정된 조건을 충족시키지 못하고, 상기 신경 네트워크 구조에 대해 샘플링을 진행한 횟수가 이미 기설정된 횟수에 도달한 것에 응답하여, 현재의 샘플링 신경 네트워크를 타겟 신경 네트워크로서 사용하기 위한 타겟 판단 유닛을 더 포함하는 것을 특징으로 하는 신경 네트워크 구조의 생성 장치. - 전자 기기로서,
프로세서를 포함하고, 상기 프로세서는 제12항 내지 제22항 중 어느 한 항에 따른 신경 네트워크 구조의 생성 장치를 포함하는 것을 특징으로 하는 전자 기기. - 전자 기기로서,
실행 가능한 명령어를 저장하기 위한 메모리; 및
상기 메모리와 통신하여 상기 실행 가능한 명령어를 실행함으로써 제1항 내지 제11항 중 어느 한 항에 따른 상기 신경 네트워크 구조의 생성 방법의 조작을 완료하기 위한 프로세서를 포함하는 것을 특징으로 하는 전자 기기. - 컴퓨터 저장 매체로서,
컴퓨터 판독 가능한 명령어를 저장하고, 상기 명령어가 실행될 경우 제1항 내지 제11항 중 어느 한 항에 따른 상기 신경 네트워크 구조의 생성 방법의 조작을 실행하는 것을 특징으로 하는 컴퓨터 저장 매체.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710718042.2A CN108229647A (zh) | 2017-08-18 | 2017-08-18 | 神经网络结构的生成方法和装置、电子设备、存储介质 |
CN201710718042.2 | 2017-08-18 | ||
PCT/CN2018/100914 WO2019034129A1 (zh) | 2017-08-18 | 2018-08-17 | 神经网络结构的生成方法和装置、电子设备、存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20200031163A true KR20200031163A (ko) | 2020-03-23 |
KR102170105B1 KR102170105B1 (ko) | 2020-10-26 |
Family
ID=62655197
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020207005617A Active KR102170105B1 (ko) | 2017-08-18 | 2018-08-17 | 신경 네트워크 구조의 생성 방법 및 장치, 전자 기기, 저장 매체 |
Country Status (6)
Country | Link |
---|---|
US (1) | US11270190B2 (ko) |
JP (1) | JP6811894B2 (ko) |
KR (1) | KR102170105B1 (ko) |
CN (1) | CN108229647A (ko) |
SG (1) | SG11201912129TA (ko) |
WO (1) | WO2019034129A1 (ko) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20220086014A (ko) * | 2020-12-16 | 2022-06-23 | 경북대학교 산학협력단 | 긴 시퀀스 데이터 내 존재하는 관계 정보를 저장 가능한 분산 연관 메모리 네트워크 시스템 |
KR20230052117A (ko) * | 2021-10-12 | 2023-04-19 | 부경대학교 산학협력단 | 딥러닝 기반 분산형 다목적 최적화 방법, 이를 위한 컴퓨터 프로그램 및 장치 |
KR20230105094A (ko) * | 2022-01-03 | 2023-07-11 | 고려대학교 산학협력단 | 무선 통신 시스템에서 머신 러닝 기반 자원 할당 방법 및 장치 |
Families Citing this family (54)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018033137A1 (zh) * | 2016-08-19 | 2018-02-22 | 北京市商汤科技开发有限公司 | 在视频图像中展示业务对象的方法、装置和电子设备 |
US10678244B2 (en) | 2017-03-23 | 2020-06-09 | Tesla, Inc. | Data synthesis for autonomous control systems |
US11409692B2 (en) | 2017-07-24 | 2022-08-09 | Tesla, Inc. | Vector computational unit |
US10671349B2 (en) | 2017-07-24 | 2020-06-02 | Tesla, Inc. | Accelerated mathematical engine |
US11893393B2 (en) | 2017-07-24 | 2024-02-06 | Tesla, Inc. | Computational array microprocessor system with hardware arbiter managing memory requests |
US11157441B2 (en) | 2017-07-24 | 2021-10-26 | Tesla, Inc. | Computational array microprocessor system using non-consecutive data formatting |
CN108229647A (zh) * | 2017-08-18 | 2018-06-29 | 北京市商汤科技开发有限公司 | 神经网络结构的生成方法和装置、电子设备、存储介质 |
US12307350B2 (en) | 2018-01-04 | 2025-05-20 | Tesla, Inc. | Systems and methods for hardware-based pooling |
US11561791B2 (en) | 2018-02-01 | 2023-01-24 | Tesla, Inc. | Vector computational unit receiving data elements in parallel from a last row of a computational array |
US11215999B2 (en) | 2018-06-20 | 2022-01-04 | Tesla, Inc. | Data pipeline and deep learning system for autonomous driving |
US11361457B2 (en) | 2018-07-20 | 2022-06-14 | Tesla, Inc. | Annotation cross-labeling for autonomous control systems |
US11636333B2 (en) | 2018-07-26 | 2023-04-25 | Tesla, Inc. | Optimizing neural network structures for embedded systems |
US11562231B2 (en) | 2018-09-03 | 2023-01-24 | Tesla, Inc. | Neural networks for embedded devices |
AU2019357615B2 (en) | 2018-10-11 | 2023-09-14 | Tesla, Inc. | Systems and methods for training machine models with augmented data |
US11196678B2 (en) | 2018-10-25 | 2021-12-07 | Tesla, Inc. | QOS manager for system on a chip communications |
CN111105029B (zh) * | 2018-10-29 | 2024-04-16 | 北京地平线机器人技术研发有限公司 | 神经网络的生成方法、生成装置和电子设备 |
CN109635920B (zh) * | 2018-11-12 | 2021-09-03 | 北京市商汤科技开发有限公司 | 神经网络优化方法及装置、电子设备和存储介质 |
CN109598332B (zh) * | 2018-11-14 | 2021-04-09 | 北京市商汤科技开发有限公司 | 神经网络生成方法及装置、电子设备和存储介质 |
US11816585B2 (en) | 2018-12-03 | 2023-11-14 | Tesla, Inc. | Machine learning models operating at different frequencies for autonomous vehicles |
US11537811B2 (en) | 2018-12-04 | 2022-12-27 | Tesla, Inc. | Enhanced object detection for autonomous vehicles based on field view |
CN109359727B (zh) * | 2018-12-07 | 2022-01-11 | 北京字节跳动网络技术有限公司 | 神经网络的结构确定方法、装置、设备及可读介质 |
CN111325311B (zh) * | 2018-12-14 | 2024-03-29 | 深圳云天励飞技术有限公司 | 用于图像识别的神经网络模型生成方法及相关设备 |
US11610117B2 (en) | 2018-12-27 | 2023-03-21 | Tesla, Inc. | System and method for adapting a neural network model on a hardware platform |
CN109800807B (zh) * | 2019-01-18 | 2021-08-31 | 北京市商汤科技开发有限公司 | 分类网络的训练方法及分类方法和装置、电子设备 |
US10997461B2 (en) | 2019-02-01 | 2021-05-04 | Tesla, Inc. | Generating ground truth for machine learning from time series elements |
US11150664B2 (en) | 2019-02-01 | 2021-10-19 | Tesla, Inc. | Predicting three-dimensional features for autonomous driving |
US11567514B2 (en) | 2019-02-11 | 2023-01-31 | Tesla, Inc. | Autonomous and user controlled vehicle summon to a target |
US10956755B2 (en) | 2019-02-19 | 2021-03-23 | Tesla, Inc. | Estimating object properties using visual image data |
CN109948795B (zh) * | 2019-03-11 | 2021-12-14 | 驭势科技(北京)有限公司 | 一种确定网络结构精度和延时优化点的方法和装置 |
CN110070120B (zh) * | 2019-04-11 | 2021-08-27 | 清华大学 | 基于判别采样策略的深度度量学习方法及系统 |
CN110070029B (zh) * | 2019-04-17 | 2021-07-16 | 北京易达图灵科技有限公司 | 一种步态识别方法及装置 |
CN110110861B (zh) * | 2019-05-09 | 2021-11-26 | 北京市商汤科技开发有限公司 | 确定模型超参数及模型训练的方法和装置、存储介质 |
CN110147883B (zh) * | 2019-05-28 | 2022-06-03 | 航天科工系统仿真科技(北京)有限公司 | 用于作战仿真的模型的训练方法、装置、设备和存储介质 |
CN111684472A (zh) * | 2019-05-31 | 2020-09-18 | 深圳市大疆创新科技有限公司 | 网络结构搜索的方法及装置、计算机存储介质和计算机程序产品 |
CN110390385B (zh) * | 2019-06-28 | 2021-09-28 | 东南大学 | 一种基于bnrp的可配置并行通用卷积神经网络加速器 |
CN112446462B (zh) * | 2019-08-30 | 2024-06-18 | 华为技术有限公司 | 目标神经网络模型的生成方法和装置 |
CN110647990A (zh) * | 2019-09-18 | 2020-01-03 | 无锡信捷电气股份有限公司 | 基于灰色关联分析的深度卷积神经网络模型的裁剪方法 |
CN111105031B (zh) * | 2019-11-11 | 2023-10-17 | 北京地平线机器人技术研发有限公司 | 网络结构搜索方法和装置、存储介质、电子设备 |
CN112990461B (zh) * | 2019-12-16 | 2023-09-19 | 杭州海康威视数字技术股份有限公司 | 构建神经网络模型的方法、装置、计算机设备和存储介质 |
CN111222637B (zh) * | 2020-01-17 | 2023-11-28 | 上海商汤智能科技有限公司 | 神经网络模型部署方法及装置、电子设备和存储介质 |
CN111325343B (zh) * | 2020-02-20 | 2022-09-09 | 北京市商汤科技开发有限公司 | 神经网络的确定、目标检测、智能行驶控制方法及装置 |
CN111582474B (zh) * | 2020-04-24 | 2023-08-25 | 中科物栖(南京)科技有限公司 | 神经网络结构探测方法、结构探测模型的训练方法及装置 |
CN113673667B (zh) * | 2020-05-13 | 2024-08-02 | 北京君正集成电路股份有限公司 | 一种车辆检测训练中网络结构的设计方法 |
CN111783937A (zh) * | 2020-05-19 | 2020-10-16 | 华为技术有限公司 | 一种神经网络构建方法以及系统 |
CN111797983B (zh) * | 2020-05-25 | 2024-12-03 | 华为技术有限公司 | 一种神经网络构建方法以及装置 |
CN113723603B (zh) * | 2020-05-26 | 2025-01-21 | 华为技术有限公司 | 一种更新参数的方法、装置及存储介质 |
CN119155702A (zh) * | 2020-06-30 | 2024-12-17 | 华为技术有限公司 | 获取神经网络的方法和装置 |
CN111985644B (zh) * | 2020-08-28 | 2024-03-08 | 北京市商汤科技开发有限公司 | 神经网络生成方法及装置、电子设备及存储介质 |
US20220172038A1 (en) * | 2020-11-30 | 2022-06-02 | International Business Machines Corporation | Automated deep learning architecture selection for time series prediction with user interaction |
CN116964594A (zh) * | 2020-12-16 | 2023-10-27 | 华为技术有限公司 | 一种基于演化学习的神经网络结构搜索方法和系统 |
CN112818788B (zh) * | 2021-01-25 | 2022-05-03 | 电子科技大学 | 一种基于无人机集群的分布式卷积神经网络分层匹配方法 |
CN115409151A (zh) * | 2021-05-27 | 2022-11-29 | 清华大学 | 图神经网络训练、任务处理方法、装置、电子设备及存储介质 |
CN113344181B (zh) * | 2021-05-31 | 2022-10-18 | 北京市商汤科技开发有限公司 | 神经网络的结构搜索方法、装置、计算机设备及存储介质 |
CN113869496A (zh) * | 2021-09-30 | 2021-12-31 | 华为技术有限公司 | 一种神经网络的获取方法、数据处理方法以及相关设备 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150100530A1 (en) * | 2013-10-08 | 2015-04-09 | Google Inc. | Methods and apparatus for reinforcement learning |
KR20180089769A (ko) * | 2017-02-01 | 2018-08-09 | 성균관대학교산학협력단 | 행동 결정 장치 및 방법, 컴퓨터 판독 가능한 저장 매체 |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2880556B2 (ja) | 1990-04-25 | 1999-04-12 | 松下冷機株式会社 | 冷蔵庫 |
JPH04353963A (ja) * | 1991-05-30 | 1992-12-08 | Toshiba Corp | 神経回路網の構築装置および方法 |
JPH087483A (ja) | 1994-06-14 | 1996-01-12 | Sony Corp | ディスク再生装置 |
JPH0887483A (ja) * | 1994-09-16 | 1996-04-02 | Hitachi Ltd | ネットワーク合成方法 |
JP3315890B2 (ja) * | 1996-05-31 | 2002-08-19 | 株式会社東芝 | データ処理システム |
CN101726742A (zh) * | 2009-12-01 | 2010-06-09 | 中国地质大学(北京) | 农作物污染胁迫水平遥感测量方法 |
JP6042274B2 (ja) * | 2013-06-28 | 2016-12-14 | 株式会社デンソーアイティーラボラトリ | ニューラルネットワーク最適化方法、ニューラルネットワーク最適化装置及びプログラム |
WO2017083777A1 (en) * | 2015-11-12 | 2017-05-18 | Google Inc. | Generating larger neural networks |
CN105701540B (zh) | 2016-01-11 | 2017-12-19 | 清华大学 | 一种自生成神经网络构建方法 |
CN106203330A (zh) * | 2016-07-08 | 2016-12-07 | 西安理工大学 | 一种基于卷积神经网络的车辆分类方法 |
KR102415506B1 (ko) * | 2016-10-26 | 2022-07-01 | 삼성전자주식회사 | 뉴럴 네트워크 간소화 방법 및 장치 |
CN106778902B (zh) * | 2017-01-03 | 2020-01-21 | 河北工业大学 | 基于深度卷积神经网络的奶牛个体识别方法 |
CN108229647A (zh) * | 2017-08-18 | 2018-06-29 | 北京市商汤科技开发有限公司 | 神经网络结构的生成方法和装置、电子设备、存储介质 |
CN109902186B (zh) | 2019-03-12 | 2021-05-11 | 北京百度网讯科技有限公司 | 用于生成神经网络的方法和装置 |
-
2017
- 2017-08-18 CN CN201710718042.2A patent/CN108229647A/zh active Pending
-
2018
- 2018-08-17 WO PCT/CN2018/100914 patent/WO2019034129A1/zh active Application Filing
- 2018-08-17 SG SG11201912129TA patent/SG11201912129TA/en unknown
- 2018-08-17 JP JP2020508039A patent/JP6811894B2/ja active Active
- 2018-08-17 KR KR1020207005617A patent/KR102170105B1/ko active Active
- 2018-11-26 US US16/200,140 patent/US11270190B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150100530A1 (en) * | 2013-10-08 | 2015-04-09 | Google Inc. | Methods and apparatus for reinforcement learning |
KR20180089769A (ko) * | 2017-02-01 | 2018-08-09 | 성균관대학교산학협력단 | 행동 결정 장치 및 방법, 컴퓨터 판독 가능한 저장 매체 |
Non-Patent Citations (2)
Title |
---|
Model-Agnostic Meta-Learning for Fast Adaptation of Deep Networks. 2017.07.18.* * |
Neural Architecture Search with reinforcement learning. 2017.02.15* * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20220086014A (ko) * | 2020-12-16 | 2022-06-23 | 경북대학교 산학협력단 | 긴 시퀀스 데이터 내 존재하는 관계 정보를 저장 가능한 분산 연관 메모리 네트워크 시스템 |
KR20230052117A (ko) * | 2021-10-12 | 2023-04-19 | 부경대학교 산학협력단 | 딥러닝 기반 분산형 다목적 최적화 방법, 이를 위한 컴퓨터 프로그램 및 장치 |
KR20230105094A (ko) * | 2022-01-03 | 2023-07-11 | 고려대학교 산학협력단 | 무선 통신 시스템에서 머신 러닝 기반 자원 할당 방법 및 장치 |
Also Published As
Publication number | Publication date |
---|---|
JP6811894B2 (ja) | 2021-01-13 |
KR102170105B1 (ko) | 2020-10-26 |
WO2019034129A1 (zh) | 2019-02-21 |
JP2020526855A (ja) | 2020-08-31 |
US11270190B2 (en) | 2022-03-08 |
SG11201912129TA (en) | 2020-02-27 |
US20190095780A1 (en) | 2019-03-28 |
CN108229647A (zh) | 2018-06-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR20200031163A (ko) | 신경 네트워크 구조의 생성 방법 및 장치, 전자 기기, 저장 매체 | |
US11301719B2 (en) | Semantic segmentation model training methods and apparatuses, electronic devices, and storage media | |
US11295208B2 (en) | Robust gradient weight compression schemes for deep learning applications | |
US10643154B2 (en) | Transforming attributes for training automated modeling systems | |
CN107969156B (zh) | 用于处理图形数据的神经网络 | |
CN108154222B (zh) | 深度神经网络训练方法和系统、电子设备 | |
KR20190031318A (ko) | 도메인 분리 뉴럴 네트워크들 | |
CN113610989B (zh) | 风格迁移模型训练方法和装置、风格迁移方法和装置 | |
KR102420715B1 (ko) | 시스템 강화 학습 방법 및 장치, 전자 기기, 컴퓨터 저장 매체 | |
US11954755B2 (en) | Image processing device and operation method thereof | |
JP2023076820A (ja) | 画像処理方法、装置、電子機器、及び記憶媒体 | |
CN113470124B (zh) | 特效模型的训练方法及装置、特效生成方法及装置 | |
US12307376B2 (en) | Training spectral inference neural networks using bilevel optimization | |
CN111868752B (zh) | 神经网络层权重的连续参数化 | |
US20150356132A1 (en) | Methods And Systems For Processing Data | |
US20190197564A1 (en) | Product space representation mapping | |
CN115598967A (zh) | 参数整定模型训练、参数确定方法、装置、设备及介质 | |
DE112022002809T5 (de) | Domainanpassung unter verwendung von domain-adversarialem lernen in synthetischen datensystemen und anwendungen | |
CN114844889A (zh) | 视频处理模型的更新方法、装置、电子设备及存储介质 | |
CN116710974A (zh) | 在合成数据系统和应用程序中使用域对抗学习的域适应 | |
CN113344200A (zh) | 用于训练可分离卷积网络的方法、路侧设备及云控平台 | |
CN113361719A (zh) | 基于图像处理模型的增量学习方法和图像处理方法 | |
US20250077624A1 (en) | Directed graph generation with diffusion kernels | |
CN115576205B (zh) | 反馈控制方法、通用反馈控制器、训练方法、可读存储介质、计算机程序产品及系统 | |
CN109670577B (zh) | 模型生成方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PA0105 | International application |
Patent event date: 20200226 Patent event code: PA01051R01D Comment text: International Patent Application |
|
PA0201 | Request for examination | ||
PG1501 | Laying open of application | ||
PA0302 | Request for accelerated examination |
Patent event date: 20200403 Patent event code: PA03022R01D Comment text: Request for Accelerated Examination |
|
E902 | Notification of reason for refusal | ||
PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20200518 Patent event code: PE09021S01D |
|
E701 | Decision to grant or registration of patent right | ||
PE0701 | Decision of registration |
Patent event code: PE07011S01D Comment text: Decision to Grant Registration Patent event date: 20200918 |
|
GRNT | Written decision to grant | ||
PR0701 | Registration of establishment |
Comment text: Registration of Establishment Patent event date: 20201020 Patent event code: PR07011E01D |
|
PR1002 | Payment of registration fee |
Payment date: 20201021 End annual number: 3 Start annual number: 1 |
|
PG1601 | Publication of registration | ||
PR1001 | Payment of annual fee |
Payment date: 20230919 Start annual number: 4 End annual number: 4 |