KR102555057B1 - 웨이트 매트릭스를 포맷하는 방법, 포맷된 데이터를 사용하는 가속기 및 이를 포함하는 시스템 - Google Patents
웨이트 매트릭스를 포맷하는 방법, 포맷된 데이터를 사용하는 가속기 및 이를 포함하는 시스템 Download PDFInfo
- Publication number
- KR102555057B1 KR102555057B1 KR1020180052920A KR20180052920A KR102555057B1 KR 102555057 B1 KR102555057 B1 KR 102555057B1 KR 1020180052920 A KR1020180052920 A KR 1020180052920A KR 20180052920 A KR20180052920 A KR 20180052920A KR 102555057 B1 KR102555057 B1 KR 102555057B1
- Authority
- KR
- South Korea
- Prior art keywords
- weight matrix
- row
- processing circuits
- information
- formatting
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5061—Partitioning or combining of resources
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/16—Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5005—Allocation of resources, e.g. of the central processing unit [CPU] to service a request
- G06F9/5027—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/10—Machine learning using kernel methods, e.g. support vector machines [SVM]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Computing Systems (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Computational Mathematics (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Neurology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Algebra (AREA)
- Databases & Information Systems (AREA)
- Complex Calculations (AREA)
Abstract
Description
도 2는 본 발명의 일 실시예에 의한 웨이트 매트릭스 포맷 방법을 나타내는 순서도.
도 3은 본 발명의 일 실시예에 의한 웨이트 매트릭스 배치 방법을 나타낸 설명도.
도 4는 포맷되기 전의 웨이트 매트릭스의 일 예를 나타낸 도표.
도 5는 웨이트 매트릭스의 행을 재배열하는 방법을 설명하는 도표.
도 6은 웨이트 매트릭스에서 행 변환을 수행한 결과를 나타내는 도표.
도 7은 웨이트 매트릭스에서 열 변환을 수행한 결과를 나타내는 도표.
도 8은 웨이트 매트릭스의 행을 단위 처리 회로에 할당하는 방법을 나타낸 도표.
도 9는 웨이트 매트릭스의 포맷 결과를 나타낸 도표.
도 10은 본 발명의 일 실시예에 의한 가속기를 포함하는 신경망 시스템의 블록도.
도 11은 본 발명의 효과를 설명하는 그래프.
11: 입력 게이트
12: 셀 게이트
13: 망각 게이트
14: 출력 게이트
100: 신경망 생성 회로
200: 신경망 포맷 회로
300: 메모리 장치
400: 가속기
410: 제어 회로
420: 처리 회로 어레이
421: 단위 처리 회로
430: 디코더
440: 입력 레지스터
450: 출력 레지스터
460: 상태 레지스터
500: 신경망 응용 회로
Claims (22)
- 하나 또는 둘 이상의 레이어를 포함하는 신경망에서 어느 한 레이어의 웨이트 매트릭스를 포맷하는 방법으로서,
웨이트 매트릭스의 행 별로 0이 아닌 원소의 개수를 기준으로 행 길이를 산출하는 단계;
행 길이 순서로 행을 정렬한 결과를 포함하는 재배열 정보를 저장하는 단계;
재배열 정보를 이용하여 웨이트 매트릭스에 대해서 행 변환 또는 행 변환 및 열 변환을 수행하는 단계;
변환된 웨이트 매트릭스의 각 행을 다수의 단위 처리 회로에 할당하는 단계; 및
다수의 단위 처리 회로 각각에서 처리할 웨이트 매트릭스의 원소 값과 열 정보를 포함하는 그룹 데이터를 포함하는 포맷 데이터를 생성하는 단계
를 포함하는 웨이트 매트릭스 포맷 방법. - 청구항 1에 있어서, 상기 할당하는 단계는 상기 다수의 단위 처리 회로 각각에 할당된 하나 또는 둘 이상의 행들의 길이의 합들 중에서 최대값이 최소가 되도록 하는 웨이트 매트릭스 포맷 방법.
- 청구항 1에 있어서, 상기 행 변환은 상기 재배열 정보에 따라 상기 웨이트 매트릭스의 행 순서를 재배열하는 단계를 포함하는 웨이트 매트릭스 포맷 방법.
- 청구항 3에 있어서, 현재 레이어와 이전 레이어를 포함하는 경우 상기 열 변환은 이전 레이어에서의 재배열 정보에 따라 현재 레이어의 웨이트 매트릭스의 열의 순서를 재배열하는 단계를 포함하는 웨이트 매트릭스 포맷 방법.
- 청구항 3에 있어서, 상기 열 변환은 상기 재배열 정보에 따라 웨이트 매트릭스 중 일부의 열의 순서를 재배열하는 단계를 포함하는 웨이트 매트릭스 포맷 방법.
- 청구항 1에 있어서, 상기 포맷 데이터는 상기 원소 값에 대응하는 행 정보를 더 포함하는 웨이트 매트릭스 포맷 방법.
- 청구항 6에 있어서, 상기 행 정보는 상기 원소 값에 대응하는 행 번호 또는 상기 재배열 정보를 참조하여 상기 행 번호를 유추할 수 있는 인코딩 정보를 포함하는 웨이트 매트릭스 포맷 방법.
- 청구항 7에 있어서, 상기 인코딩 정보는 상기 웨이트 매트릭스의 각 행의 행 길이를 포함하는 웨이트 매트릭스 포맷 방법.
- 청구항 1에 있어서, 상기 신경망은 하나 또는 둘 이상의 레이어를 포함하는 LSTM 네트워크인 웨이트 매트릭스 포맷 방법.
- 청구항 9에 있어서, 상기 웨이트 매트릭스는 입력 벡터와 곱셈되는 제 1 웨이트 매트릭스와 이전 출력 벡터와 곱셈되는 제 2 웨이트 매트릭스를 포함하고,
상기 제 1 웨이트 매트릭스와 상기 제 2 웨이트 매트릭스를 행 방향으로 수평하게 배치하는 단계를 더 포함하는 웨이트 매트릭스 포맷 방법. - 청구항 10에 있어서, 상기 행 변환은 상기 재배열 정보에 따라 상기 웨이트 매트릭스의 행 순서를 재배열하는 단계를 포함하는 웨이트 매트릭스 포맷 방법.
- 청구항 11에 있어서, 상기 열 변환은 상기 재배열 정보에 따라 웨이트 매트릭스 중 제 2 웨이트 매트릭스 부분의 열의 순서를 재배열하는 단계를 포함하는 웨이트 매트릭스 포맷 방법.
- 청구항 12에 있어서, 현재 레이어와 이전 레이어를 포함하는 경우 상기 열 변환은 이전 레이어에서의 재배열 정보에 따라 현재 레이어의 제 1 웨이트 매트릭스의 열의 순서를 재배열하는 단계를 더 포함하는 웨이트 매트릭스 포맷 방법.
- 다수의 단위 처리 회로를 구비한 처리 회로 어레이;
상기 처리 회로 어레이의 출력 벡터를 저장하는 출력 레지스터;
상기 처리 회로 어레이에 입력 벡터를 제공하는 입력 레지스터; 및
상기 다수의 단위 처리 회로에서 처리할 행들의 행 길이의 합이 균등하게 할당되도록 웨이트 매트릭스를 포맷한 포맷 데이터를 상기 처리 회로 어레이에 제공하는 제어 회로;
를 포함하되,
상기 포맷 데이터는 상기 다수의 처리 회로 각각에 제공할 상기 웨이트 매트릭스의 원소 값과 상기 원소 값에 대응하는 열 번호를 포함하고 상기 원소 값에 대응하는 행 번호를 도출할 수 있는 행 정보를 포함하는 가속기. - 청구항 14에 있어서, 상기 행 정보로부터 상기 원소 값에 대응하는 행 번호를 도출할 수 있는 디코더를 더 포함하는 가속기.
- 청구항 14에 있어서, 상기 처리 회로 어레이의 연산 결과를 임시 저장하고 임시 저장된 정보를 상기 처리 회로 어레이에 제공하는 상태 레지스터를 더 포함하는 가속기.
- 청구항 14에 있어서, 상기 포맷 데이터는 다수의 그룹 데이터를 포함하고 상기 다수의 그룹 데이터 각각은 상기 다수의 단위 처리 회로에 제공할 상기 원소 값과 상기 원소 값에 대응하는 열 번호를 포함하는 가속기.
- 청구항 17에 있어서, 상기 제어 회로는 상기 다수의 그룹 데이터를 순차적으로 상기 처리 회로 어레이에 제공하는 가속기.
- 다수의 단위 처리 회로를 포함하는 가속기; 및
웨이트 매트릭스를 상기 다수의 단위 처리 회로에서 처리할 행들의 행 길이의 합이 균등하게 할당되도록 포맷한 포맷 데이터와 입력 신호로부터 생성된 입력 벡터를 상기 가속기에 제공하여 추론 동작을 제어하는 신경망 응용 회로
를 포함하는 시스템. - 청구항 19에 있어서, 상기 가속기는
상기 다수의 단위 처리 회로를 포함하는 처리 회로 어레이;
상기 처리 회로 어레이의 출력 벡터를 저장하는 출력 레지스터;
상기 처리 회로 어레이에 입력 벡터를 제공하는 입력 레지스터; 및
상기 포맷 데이터를 상기 처리 회로 어레이에 제공하는 제어 회로;
를 포함하되,
상기 포맷 데이터는 상기 다수의 처리 회로 각각에 제공할 상기 웨이트 매트릭스의 원소 값과 상기 원소 값에 대응하는 열 번호를 포함하고 상기 원소 값에 대응하는 행 번호를 도출할 수 있는 행 정보를 포함하는 시스템. - 청구항 19에 있어서,
신경망을 트레이닝하고 도출된 웨이트 매트릭스를 프루닝하여 출력하는 신경망 생성 회로; 및
상기 포맷 데이터를 생성하는 신경망 포맷 회로;
를 더 포함하는 시스템. - 청구항 21에 있어서, 상기 신경망 포맷 회로는 상기 다수의 단위 처리 회로의 개수를 수신한 후 상기 포맷 데이터를 생성하는 시스템.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180052920A KR102555057B1 (ko) | 2018-05-09 | 2018-05-09 | 웨이트 매트릭스를 포맷하는 방법, 포맷된 데이터를 사용하는 가속기 및 이를 포함하는 시스템 |
US16/362,398 US11651224B2 (en) | 2018-05-09 | 2019-03-22 | Method for formatting a weight matrix, accelerator using the formatted weight matrix, and system including the accelerator |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180052920A KR102555057B1 (ko) | 2018-05-09 | 2018-05-09 | 웨이트 매트릭스를 포맷하는 방법, 포맷된 데이터를 사용하는 가속기 및 이를 포함하는 시스템 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20190128795A KR20190128795A (ko) | 2019-11-19 |
KR102555057B1 true KR102555057B1 (ko) | 2023-07-12 |
Family
ID=68464759
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020180052920A Active KR102555057B1 (ko) | 2018-05-09 | 2018-05-09 | 웨이트 매트릭스를 포맷하는 방법, 포맷된 데이터를 사용하는 가속기 및 이를 포함하는 시스템 |
Country Status (2)
Country | Link |
---|---|
US (1) | US11651224B2 (ko) |
KR (1) | KR102555057B1 (ko) |
Families Citing this family (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6832050B2 (ja) | 2017-02-23 | 2021-02-24 | セレブラス システムズ インク. | 加速化ディープラーニング |
US11037330B2 (en) | 2017-04-08 | 2021-06-15 | Intel Corporation | Low rank matrix compression |
US11488004B2 (en) | 2017-04-17 | 2022-11-01 | Cerebras Systems Inc. | Neuron smearing for accelerated deep learning |
WO2018193370A1 (en) | 2017-04-17 | 2018-10-25 | Cerebras Systems Inc. | Task activating for accelerated deep learning |
US11042797B2 (en) * | 2019-01-08 | 2021-06-22 | SimpleMachines Inc. | Accelerating parallel processing of data in a recurrent neural network |
KR102543413B1 (ko) | 2019-02-12 | 2023-06-13 | 에스케이하이닉스 주식회사 | 웨이트 매트릭스를 포맷하는 방법, 포맷된 데이터를 사용하는 가속기 및 이를 포함하는 시스템 |
US11126690B2 (en) | 2019-03-29 | 2021-09-21 | Intel Corporation | Machine learning architecture support for block sparsity |
US11544540B2 (en) * | 2019-05-10 | 2023-01-03 | Hewlett Packard Enterprise Development Lp | Systems and methods for neural network training and deployment for hardware accelerators |
US11663452B2 (en) * | 2019-09-25 | 2023-05-30 | Intel Corporation | Processor array for processing sparse binary neural networks |
US12169771B2 (en) | 2019-10-16 | 2024-12-17 | Cerebras Systems Inc. | Basic wavelet filtering for accelerated deep learning |
US12177133B2 (en) | 2019-10-16 | 2024-12-24 | Cerebras Systems Inc. | Dynamic routing for accelerated deep learning |
KR20210051920A (ko) * | 2019-10-31 | 2021-05-10 | 삼성전자주식회사 | 신경망의 커널들을 정렬하는 전자 장치 및 이의 동작 방법 |
KR20210111014A (ko) * | 2020-03-02 | 2021-09-10 | 삼성전자주식회사 | 전자 장치 및 그 제어 방법 |
CN111582467B (zh) * | 2020-05-14 | 2023-12-22 | 上海商汤智能科技有限公司 | 人工智能加速器和电子设备 |
CN113762493A (zh) * | 2020-06-01 | 2021-12-07 | 阿里巴巴集团控股有限公司 | 神经网络模型的压缩方法、装置、加速单元和计算系统 |
WO2022034542A1 (en) * | 2020-08-14 | 2022-02-17 | Cerebras Systems Inc. | Weight sparsity techniques for accelerated deep learning |
US12223291B2 (en) | 2020-08-21 | 2025-02-11 | Memryx Incorporated | Matrix multiplication engines |
US11488664B2 (en) | 2020-10-13 | 2022-11-01 | International Business Machines Corporation | Distributing device array currents across segment mirrors |
CN112991142B (zh) * | 2021-03-31 | 2023-06-16 | 腾讯科技(深圳)有限公司 | 图像数据的矩阵运算方法、装置、设备及存储介质 |
CN115660035B (zh) * | 2022-12-28 | 2023-08-11 | 南京南瑞信息通信科技有限公司 | 一种用于lstm网络的硬件加速器及lstm模型 |
WO2024258068A1 (ko) * | 2023-06-15 | 2024-12-19 | 삼성전자주식회사 | 전자 장치 및 이의 제어 방법 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101400577B1 (ko) | 2013-03-11 | 2014-06-19 | 한양대학교 산학협력단 | Gpu를 이용한 희소행렬 곱셈 방법 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100561392B1 (ko) * | 2002-11-20 | 2006-03-16 | 삼성전자주식회사 | 고속 역 이산 여현 변환 방법 및 장치 |
WO2010141182A2 (en) * | 2009-06-02 | 2010-12-09 | Saffron Technology, Inc. | Methods, systems and computer program products for providing a distributed associative memory base |
US9367519B2 (en) | 2013-08-30 | 2016-06-14 | Microsoft Technology Licensing, Llc | Sparse matrix data structure |
US9830302B1 (en) * | 2014-04-16 | 2017-11-28 | Knowles Electronics, Llc | Sparse matrix vector multiplication |
US20160358069A1 (en) * | 2015-06-03 | 2016-12-08 | Samsung Electronics Co., Ltd. | Neural network suppression |
US10810484B2 (en) * | 2016-08-12 | 2020-10-20 | Xilinx, Inc. | Hardware accelerator for compressed GRU on FPGA |
US12019603B2 (en) * | 2016-10-11 | 2024-06-25 | Nec Corporation | Area allocation device, area allocation method, and non-volatile recording medium |
US10127495B1 (en) * | 2017-04-14 | 2018-11-13 | Rohan Bopardikar | Reducing the size of a neural network through reduction of the weight matrices |
US20190087729A1 (en) * | 2017-09-18 | 2019-03-21 | Intel Corporation | Convolutional neural network tuning systems and methods |
US10354733B1 (en) * | 2017-10-17 | 2019-07-16 | Xilinx, Inc. | Software-defined memory bandwidth reduction by hierarchical stream buffering for general matrix multiplication in a programmable IC |
-
2018
- 2018-05-09 KR KR1020180052920A patent/KR102555057B1/ko active Active
-
2019
- 2019-03-22 US US16/362,398 patent/US11651224B2/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101400577B1 (ko) | 2013-03-11 | 2014-06-19 | 한양대학교 산학협력단 | Gpu를 이용한 희소행렬 곱셈 방법 |
Also Published As
Publication number | Publication date |
---|---|
US20190347555A1 (en) | 2019-11-14 |
US11651224B2 (en) | 2023-05-16 |
KR20190128795A (ko) | 2019-11-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102555057B1 (ko) | 웨이트 매트릭스를 포맷하는 방법, 포맷된 데이터를 사용하는 가속기 및 이를 포함하는 시스템 | |
US11544539B2 (en) | Hardware neural network conversion method, computing device, compiling method and neural network software and hardware collaboration system | |
EP3579150B1 (en) | Operation apparatus and method for a neural network | |
CN106503791B (zh) | 用于有效神经网络部署的系统和方法 | |
US10713561B2 (en) | Multiplexing physical neurons to optimize power and area | |
US5506998A (en) | Parallel data processing system using a plurality of processing elements to process data and a plurality of trays connected to some of the processing elements to store and transfer data | |
US11663444B2 (en) | Pipelined neural network processing with continuous and asynchronous updates | |
US20210295168A1 (en) | Gradient compression for distributed training | |
KR102163209B1 (ko) | 컨볼루션 신경망 훈련의 다차원 병렬화 방법과 이를 수행하는 장치 사이의 재구성 가능한 연결 구조 | |
CN111709493B (zh) | 对象分类方法、训练方法、装置、设备及存储介质 | |
EP3754503B1 (en) | Allocation system, method and apparatus for machine learning, and computer device | |
KR20180075368A (ko) | 인공 신경망 모델에서 메모리 효율성 및 학습 속도 향상을 위한 드롭아웃 방법과 이를 이용한 학습 방법 | |
US20160155046A1 (en) | Transform architecture for multiple neurosynaptic core circuits | |
US20240126833A1 (en) | Apparatus and method of performing matrix multiplication operation of neural network | |
Nagaraja et al. | Collaborative training of acoustic encoders for speech recognition | |
US20240386273A1 (en) | Data processing apparatus, training apparatus, method of detecting an object, method of training, and medium | |
US20240143525A1 (en) | Transferring non-contiguous blocks of data using instruction-based direct-memory access (dma) | |
US12210952B2 (en) | Reorganizable data processing array for neural network computing | |
CN114004353B (zh) | 减少光器件数量的光神经网络芯片构建方法及系统 | |
KR102543413B1 (ko) | 웨이트 매트릭스를 포맷하는 방법, 포맷된 데이터를 사용하는 가속기 및 이를 포함하는 시스템 | |
US20220044370A1 (en) | Image processing methods | |
JPH05197705A (ja) | ニューラルネットワークの学習システム | |
KR102548283B1 (ko) | 콘볼루션 신경망 컴퓨팅 장치 | |
CN115019079B (zh) | 用于图像识别的分布式概略优化加速深度学习训练的方法 | |
KR102473941B1 (ko) | 딥러닝 모델 병렬 처리 장치 및 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20180509 |
|
PG1501 | Laying open of application | ||
A201 | Request for examination | ||
PA0201 | Request for examination |
Patent event code: PA02012R01D Patent event date: 20210218 Comment text: Request for Examination of Application Patent event code: PA02011R01I Patent event date: 20180509 Comment text: Patent Application |
|
E902 | Notification of reason for refusal | ||
PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20221128 Patent event code: PE09021S01D |
|
E701 | Decision to grant or registration of patent right | ||
PE0701 | Decision of registration |
Patent event code: PE07011S01D Comment text: Decision to Grant Registration Patent event date: 20230531 |
|
GRNT | Written decision to grant | ||
PR0701 | Registration of establishment |
Comment text: Registration of Establishment Patent event date: 20230710 Patent event code: PR07011E01D |
|
PR1002 | Payment of registration fee |
Payment date: 20230710 End annual number: 3 Start annual number: 1 |
|
PG1601 | Publication of registration |