KR102624400B1 - Artificial Neural Network Using 4-terminal neuromorphic devices - Google Patents
Artificial Neural Network Using 4-terminal neuromorphic devices Download PDFInfo
- Publication number
- KR102624400B1 KR102624400B1 KR1020210084406A KR20210084406A KR102624400B1 KR 102624400 B1 KR102624400 B1 KR 102624400B1 KR 1020210084406 A KR1020210084406 A KR 1020210084406A KR 20210084406 A KR20210084406 A KR 20210084406A KR 102624400 B1 KR102624400 B1 KR 102624400B1
- Authority
- KR
- South Korea
- Prior art keywords
- neural network
- network element
- spin
- terminals
- network elements
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 176
- 230000005294 ferromagnetic effect Effects 0.000 claims description 18
- 230000005291 magnetic effect Effects 0.000 claims description 18
- 239000002184 metal Substances 0.000 claims description 11
- 229910052751 metal Inorganic materials 0.000 claims description 11
- 230000004888 barrier function Effects 0.000 claims description 2
- 230000005381 magnetic domain Effects 0.000 description 10
- 238000010586 diagram Methods 0.000 description 8
- 210000002569 neuron Anatomy 0.000 description 8
- 210000000225 synapse Anatomy 0.000 description 6
- 230000004913 activation Effects 0.000 description 4
- 238000000034 method Methods 0.000 description 4
- 230000005355 Hall effect Effects 0.000 description 3
- 230000003064 anti-oxidating effect Effects 0.000 description 3
- 230000005415 magnetization Effects 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 230000000946 synaptic effect Effects 0.000 description 3
- 229910045601 alloy Inorganic materials 0.000 description 2
- 239000000956 alloy Substances 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 229910017107 AlOx Inorganic materials 0.000 description 1
- 229910019236 CoFeB Inorganic materials 0.000 description 1
- 229910018936 CoPd Inorganic materials 0.000 description 1
- 229910018979 CoPt Inorganic materials 0.000 description 1
- 229910015187 FePd Inorganic materials 0.000 description 1
- 229910005335 FePt Inorganic materials 0.000 description 1
- 229910001030 Iron–nickel alloy Inorganic materials 0.000 description 1
- 229910017947 MgOx Inorganic materials 0.000 description 1
- 238000009825 accumulation Methods 0.000 description 1
- 230000002547 anomalous effect Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 239000002800 charge carrier Substances 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 239000003302 ferromagnetic material Substances 0.000 description 1
- 229910052735 hafnium Inorganic materials 0.000 description 1
- 229910052742 iron Inorganic materials 0.000 description 1
- 229910052748 manganese Inorganic materials 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 229910052759 nickel Inorganic materials 0.000 description 1
- 229910052758 niobium Inorganic materials 0.000 description 1
- 229910052697 platinum Inorganic materials 0.000 description 1
- 230000000638 stimulation Effects 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 229910052715 tantalum Inorganic materials 0.000 description 1
- 229910052721 tungsten Inorganic materials 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
-
- H—ELECTRICITY
- H10—SEMICONDUCTOR DEVICES; ELECTRIC SOLID-STATE DEVICES NOT OTHERWISE PROVIDED FOR
- H10N—ELECTRIC SOLID-STATE DEVICES NOT OTHERWISE PROVIDED FOR
- H10N50/00—Galvanomagnetic devices
- H10N50/10—Magnetoresistive devices
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Theoretical Computer Science (AREA)
- Evolutionary Computation (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Neurology (AREA)
- Logic Circuits (AREA)
Abstract
본 발명은 각각 4개의 단자를 가지는 복수의 제1 신경망소자들과 제2 신경망소자들로 구성된 신경망 회로로서, 서로 각각 교차하는 2개의 배선쌍이 서로 교차하는 각 지점에 상기 제1 신경망소자들이 배치되어 있고, 하나의 배선쌍들은 상기 제1 신경망소자들 각각의 프로그램 단자들에 접속되고, 다른 하나의 배선쌍들은 상기 제1 신경망소자들 각각의 리드 단자들에 접속되어, 각 제1 신경망소자들을 직렬 또는 병렬로 접속하며, 상기 다른 하나의 배선쌍들의 일단에는 상기 제2 신경망소자의 두단자가 연결되며, 상기 제2 신경망소자의 다른 두단자는 출력단자로 연결되되, 상기 제1 신경망소자와 상기 제2 신경망소자는 전압신호에 의해 동작되는 소자인 것을 특징으로 하는 신경망 회로를 제공한다. .The present invention is a neural network circuit composed of a plurality of first neural network elements and second neural network elements each having four terminals, wherein the first neural network elements are arranged at each point where two intersecting wire pairs intersect each other. One wire pair is connected to the program terminals of each of the first neural network elements, and the other wire pair is connected to the lead terminals of each of the first neural network elements, so that each of the first neural network elements is connected in series. Or connected in parallel, one end of the other wire pair is connected to two terminals of the second neural network element, and the other two terminals of the second neural network element are connected to output terminals, and the first neural network element and the A neural network circuit is provided wherein the second neural network element is an element operated by a voltage signal. .
Description
본 발명은 신경망 회로에 관한 것으로, 보다 구체적으로는, 전압 신호를 활용하여 구성되는 신경망회로에 관한 것이다. The present invention relates to a neural network circuit, and more specifically, to a neural network circuit constructed using voltage signals.
최근 딥 러닝(Deep Learning)의 출현 이후에 인공 신경망(Artificial Neural Network)에 대한 연구가 활발히 진행되고 있다. 인공 신경망의 효과적인 구축을 위해서는 인간의 뇌와 유사하게 학습 및 연산 기능을 수행하는 소자가 요구된다. 인간의 학습능력을 모사하기 위해서는 뉴런 및 시냅스의 역할을 하는 하드웨어가 필요하며, 이를 신경망소자라 지칭한다. Recently, since the advent of Deep Learning, research on Artificial Neural Networks has been actively conducted. In order to effectively build an artificial neural network, devices that perform learning and computing functions similar to the human brain are required. In order to simulate human learning ability, hardware that acts as neurons and synapses is required, and this is called a neural network device.
신경망소자는 인가되는 자극에 따라 생물학적 시냅스 동작과 유사한 동작을 수행할 필요가 있다. 뉴런들 사이는 시냅스가 연결되고, 뉴런 간의 스파이크 신호는 시냅스를 통해 전달된다. 시냅스의 강도는 뉴런에 전달하는 동종의 신호의 반복 횟수 또는 전달되는 정보의 가중치에 따라 변경될 수 있다. Neural network devices need to perform operations similar to biological synapse operations depending on the applied stimulus. Synapses are connected between neurons, and spike signals between neurons are transmitted through synapses. The strength of a synapse can change depending on the number of repetitions of the same signal transmitted to the neuron or the weight of the transmitted information.
통상적인 신경망소자의 경우, 인가되는 자극 또는 세기에 따라 저항이 변하는 멤리스터 소자 또는 그와 동일한 역할을 하는 회로가 상술한 동작을 실현한다. 즉, 소자에 자극의 반복횟수가 증가될수록 멤리스터 소자의 저항은 지속적으로 낮아지거나, 지속적으로 증가한다. 이를 통해 시냅스 동작을 구현할 수 있다. In the case of a typical neural network device, a memristor device whose resistance changes depending on the applied stimulus or intensity, or a circuit that plays the same role, realizes the above-described operation. In other words, as the number of repetitions of stimulation to the device increases, the resistance of the memristor device continues to decrease or continuously increases. Through this, synaptic operation can be implemented.
최근 전류유도형 도메인 월(domain-wall) 모션을 채용한 디바이스들 같은 스핀트로닉스 기반의 디바이스가 신경망소자의 구성으로 관심을 끌고 있다. 이러한 디바이스들은 저소비전력이면서 고신뢰성이면서 재현성이 높은 것으로 알려져 있다. 자기터널접합(magnetic tunnel junction, MTJ)을 이용한 도메인월(domain-wall) 기반의 신경망소자가 보고되었다. MTJ 기반의 저항 출력 디바이스들은 전압입력 신호로부터 전류를 생성한다. 따라서, 가중치 디바이스로부터의 전류 출력신호는 활성화 함수를 구동하기 위해 전압신호로 전환되는데, 이러한 과정은 op-amp 를 통해서 I-V 컨버터에 의해 수행된다. 그러나, Op-amp 가 소자에 사용되게 되면 다수의 트랜지스터들도 함께 필수적으로 추가되게 되어 복잡성이 크게 증가하는 문제점이 있었다.Recently, spintronics-based devices, such as devices employing current-induced domain-wall motion, are attracting attention as a neural network element. These devices are known to have low power consumption, high reliability, and high reproducibility. A domain-wall based neural network device using magnetic tunnel junction (MTJ) has been reported. MTJ-based resistive output devices generate current from a voltage input signal. Therefore, the current output signal from the weight device is converted to a voltage signal to drive the activation function, and this process is performed by an I-V converter through an op-amp. However, when an op-amp is used in a device, a large number of transistors are necessarily added, resulting in a significant increase in complexity.
따라서, 신경망회로의 구성에 있어서, 동작과 출력이 모두 전압으로 이루어지도록 구성하고, 그 크기도 조절할 수 있게 되면, op-amp 가 필요 없고 여러 회로가 중첩될 경우에도 신호 손실없이 전달될 수가 있을 것으로 기대된다. 그러나, 전압 신호를 활용하는 소자는 일부 센서 종류가 있지만, 어레이로 구성된 시냅스, 뉴런 소자는 보고된 바가 없어서 이에 대한 요구가 있어왔다. Therefore, in the configuration of a neural network circuit, if both operation and output are configured with voltage and the size can be adjusted, an op-amp is not needed and the signal can be transmitted without loss even when several circuits overlap. It is expected. However, although there are some types of sensors that utilize voltage signals, synaptic and neuron devices consisting of arrays have not been reported, so there has been a demand for them.
한국공개특허 제2020-84796호Korean Patent Publication No. 2020-84796
본 발명의 목적은 전압 신호를 활용하여 구성되는 신경망회로를 제공하는 것이다.The purpose of the present invention is to provide a neural network circuit constructed using voltage signals.
본 발명의 다른 목적은 홀 전압을 다른 변환과정 없이 출력신호로 그대로 사용하는 신경망 회로를 구성하는 것이다. Another object of the present invention is to construct a neural network circuit that uses the Hall voltage as an output signal without any other conversion process.
상술한 목적을 달성하기 위한 수단으로서, 본 발명의 일측면은 각각 4개의 단자를 가지는 복수의 제1 신경망소자들과 제2 신경망소자들로 구성된 신경망 회로로서, 서로 각각 교차하는 2개의 배선쌍이 서로 교차하는 각 지점에 상기 제1 신경망소자들이 배치되어 있고, 하나의 배선쌍들은 상기 제1 신경망소자들 각각의 프로그램 단자들에 접속되고, 다른 하나의 배선쌍들은 상기 제1 신경망소자들 각각의 리드 단자들에 접속되어, 각 제1 신경망소자들을 직렬 또는 병렬로 접속하며, 상기 다른 하나의 배선쌍들의 일단에는 상기 제2 신경망소자의 두단자가 연결되며, 상기 제2 신경망소자의 다른 두단자는 출력단자로 연결되되, 상기 제1 신경망소자와 상기 제2 신경망소자는 전압신호에 의해 동작되는 소자인 것을 특징으로 하는 신경망 회로를 제공한다.As a means to achieve the above-described object, one aspect of the present invention is a neural network circuit composed of a plurality of first neural network elements and second neural network elements each having four terminals, wherein two wire pairs that intersect each other are connected to each other. The first neural network elements are arranged at each intersection, one wire pair is connected to the program terminals of each of the first neural network elements, and the other wire pair is connected to a lead of each of the first neural network elements. terminals to connect each first neural network element in series or parallel, one end of the other wire pair is connected to two terminals of the second neural network element, and the other two terminals of the second neural network element are connected to one end of the other wire pair. It provides a neural network circuit connected to an output terminal, wherein the first neural network element and the second neural network element are elements operated by a voltage signal.
바람직하게는, 제1 신경망소자와 제2 신경망소자는 서로 동작전압이 상이하다.Preferably, the first neural network element and the second neural network element have different operating voltages.
바람직하게는, 제1 신경망소자는 스핀 S 소자이고, 제2 신경망소자는 스핀 N 소자이다.Preferably, the first neural network element is a spin S element, and the second neural network element is a spin N element.
바람직하게는, 제1 신경망소자와 상기 제2 신경망소자는 각각 적어도 터널 베리어층, 비자성 금속층, 강자성층 및 비자성 금속층을 포함한다. Preferably, the first neural network element and the second neural network element each include at least a tunnel barrier layer, a non-magnetic metal layer, a ferromagnetic layer, and a non-magnetic metal layer.
바람직하게는, 제1 신경망소자와 제2 신경망소자는 서로 동일한 적층 구조를 가지고 있으면서 적어도 하나의 두께 또는 크기가 상이하다. Preferably, the first neural network element and the second neural network element have the same stacked structure, but have at least one thickness or size different from each other.
본 발명에 의하면, 전압을 출력신호로 사용하는 소자를 사용하여 신경망 회로 구조를 구성할 수 있게 되고, 전압 기반소자들의 가이드라인이 될 수는 효과가 있다. According to the present invention, it is possible to construct a neural network circuit structure using devices that use voltage as an output signal, and it is effective in serving as a guideline for voltage-based devices.
본 발명에 따르면, 홀 전압을 다른 변환과정 없이 출력신호로 그대로 사용한다는 장점이 있음According to the present invention, there is an advantage of using the Hall voltage as an output signal without any other conversion process.
도 1은 본 발명의 일실시예에 따른 신경망 회로도이다.
도 2는 본 발명의 신경망 회로에서, ym과 Om의 응답 곡선을 나타내는 그래프들이다.
도 3 내지 도 5는 본 발명의 신경망회로를 검증하기 위해 2개의 제1신경망소자(스핀 S)와 1개의 제2 신경망소자(스핀 N)을 이용하여 (2S + 1N)의 패턴 분류의 실험적 분류를 증명하기 위한 도면들이다.
도 6은 본 발명의 실시예에 따른 신경망 네크워크의 실제 동작 예를 설명하기 위한 개념도이다.
도 7은 본 발명의 바람직한 실시예에 따른 신경망소자를 도시한 사시도이다.
도 8은 본 발명의 바람직한 실시예에 따른 도 1의 신경망 네트워크를 AA' 라인을 따라 절단한 모식도이다. 1 is a neural network circuit diagram according to an embodiment of the present invention.
Figure 2 is a graph showing the response curves of y m and O m in the neural network circuit of the present invention.
3 to 5 are experimental classifications of pattern classification of (2S + 1N) using two first neural network elements (spin S) and one second neural network element (spin N) to verify the neural network circuit of the present invention. These are drawings to prove.
Figure 6 is a conceptual diagram for explaining an actual operation example of a neural network network according to an embodiment of the present invention.
Figure 7 is a perspective view showing a neural network device according to a preferred embodiment of the present invention.
Figure 8 is a schematic diagram of the neural network of Figure 1 cut along line AA' according to a preferred embodiment of the present invention.
본 명세서에 개시된 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 명세서가 이하에서 개시되는 실시예들에 제한되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 명세서의 개시가 완전하도록 하고, 본 명세서가 속하는 기술 분야의 통상의 기술자(이하 '당업자')에게 본 명세서의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 명세서의 권리 범위는 청구항의 범주에 의해 정의될 뿐이다. The advantages and features of the invention disclosed in this specification and methods for achieving them will become clear by referring to the embodiments described in detail below along with the accompanying drawings. However, the present specification is not limited to the embodiments disclosed below and may be implemented in various different forms, and the present embodiments are merely intended to ensure that the disclosure of the present specification is complete and to provide a general understanding of the technical field to which the present specification pertains. It is provided to fully inform those skilled in the art of the scope of this specification, and the scope of rights of this specification is only defined by the scope of the claims.
도 1은 본 발명의 일실시예에 따른 신경망 회로도이다.1 is a neural network circuit diagram according to an embodiment of the present invention.
도 1을 참조하면, 본 신경망회로는 제1 신경망소자들(S11, S12,...Sn4) 과 제2 신경망소자들(N1, N2, N3, N4)로 구성된다. 도 1의 도시에서는 도시의 간략화를 위해 신경망 회로가 4X4 의 신경망소자들로 이루어진 상황을 예시하고 있으나 N X M으로 구현하는 것이 가능함은 물론이다. 또한, 여러 개의 레이어를 연결해서 (N x M) x (M x O ) 의 형태로 구성되는 것도 가능함을 밝혀둔다. 여기서 M, N, O는 각각 1 이상의 자연수이다.Referring to Figure 1, this neural network circuit is composed of first neural network elements (S11, S12,...Sn4) and second neural network elements (N1, N2, N3, N4). The illustration in FIG. 1 illustrates a situation where the neural network circuit is composed of 4x4 neural network elements for the sake of simplification, but it is of course possible to implement it in N x M. In addition, we note that it is also possible to connect multiple layers to form a structure of (N x M) x (M x O). Here, M, N, and O are each natural numbers greater than 1.
제1 신경망소자들(S11, S12,...Sn4) 과 제2 신경망소자들(N1, N2, N3, N4)은 각각 4개의 단자를 가진다. 그리고, 서로 각각 교차하는 2개의 배선쌍이 존재한다. 제1 배선쌍 (x1,x2,x3,x4)은 2개의 배선이 동일한 방향으로 나란히 배열되어 있으며 제1 신경망소자들(S11, S12,...Sn4)의 2개의 제1 단자들에 접속된다. 제2 배선쌍 (y1,y2,y3,y4)은 2개의 배선이 동일한 방향으로 나란히 배열되어 있으며 제1 배선쌍 (x1,x2,x3,x4)과 수직으로 배치되고, 제1 신경망소자들(S11, S12,...Sn4)의 2개의 제2 단자들에 접속된다.The first neural network elements (S11, S12,...Sn4) and the second neural network elements (N1, N2, N3, N4) each have four terminals. Also, there are two wire pairs that intersect each other. The first wire pair (x1, x2, x3, x4) has two wires arranged side by side in the same direction and is connected to the two first terminals of the first neural network elements (S11, S12,...Sn4). . The second wire pair (y1, y2, y3, y4) has two wires arranged side by side in the same direction and is arranged perpendicular to the first wire pair (x1, x2, x3, x4), and the first neural network elements ( It is connected to two second terminals (S11, S12,...Sn4).
도 1의 도시에서는 제2 배선쌍 (y1,y2,y3,y4)이 각 제1 신경망소자들(S11, S12,...Sn4)을 병렬로 연결하고 있는 구조를 가지고 있다. 한편 제2 배선쌍의 일단에는 제2 신경망소자들(N1, N2, N3, N4)의 두단자가 연결되며, 상기 제2 신경망소자들(N1, N2, N3, N4)의 다른 두단자는 출력단자(O2)로 연결된다.In the illustration of FIG. 1, the second wiring pair (y1, y2, y3, y4) has a structure in which the first neural network elements (S11, S12,...Sn4) are connected in parallel. Meanwhile, two terminals of the second neural network elements (N1, N2, N3, N4) are connected to one end of the second wiring pair, and the other two terminals of the second neural network elements (N1, N2, N3, N4) are output. Connected to terminal (O2).
제1 신경망소자들(S11, S12,..,Sn4) 과 제2 신경망소자들(N1, N2, N3, N4)들은 각각 4 개의 단자 전극을 기반으로 하며, 프로그래밍 경로가 읽기 작업 경로와 분리되어 있으며, 입력과 출력이 모두 전압 신호이다. 제1 신경망소자는 spin-S소자, 제2 신경망소자는 spin-N소자로 구성될 수 있다. The first neural network elements (S11, S12,...,Sn4) and the second neural network elements (N1, N2, N3, N4) are each based on four terminal electrodes, and the programming path is separated from the read operation path. Both input and output are voltage signals. The first neural network element may be comprised of a spin-S element, and the second neural network element may be comprised of a spin-N element.
도 1은 본 발명의 일실시예에 따른 신경망 회로도이다.1 is a neural network circuit diagram according to an embodiment of the present invention.
도 1을 참조하면, 본 신경망회로는 제1 신경망소자들(S11, S12,...Sn4) 과 제2 신경망소자들(N1, N2, N3, N4)로 구성된다. 도 1의 도시에서는 도시의 간략화를 위해 신경망 회로가 4X4 의 신경망소자들로 이루어진 상황을 예시하고 있으나 N X M으로 구현하는 것이 가능함은 물론이다. 또한, 여러 개의 레이어를 연결해서 (N x M) x (M x O ) 의 형태로 구성되는 것도 가능함을 밝혀둔다. 여기서 M, N, O는 각각 1 이상의 자연수이다.Referring to Figure 1, this neural network circuit is composed of first neural network elements (S11, S12,...Sn4) and second neural network elements (N1, N2, N3, N4). The illustration in FIG. 1 illustrates a situation where the neural network circuit is composed of 4x4 neural network elements for the sake of simplification, but it is of course possible to implement it in N x M. In addition, we note that it is possible to connect multiple layers to form a structure of (N x M) x (M x O). Here, M, N, and O are each natural numbers greater than 1.
제1 신경망소자들(S11, S12,...Sn4) 과 제2 신경망소자들(N1, N2, N3, N4)은 각각 4개의 단자를 가진다. 그리고, 서로 각각 교차하는 2개의 배선쌍이 존재한다. 제1 배선쌍 (x1,x2,x3,x4)은 2개의 배선이 동일한 방향으로 나란히 배열되어 있으며 제1 신경망소자들(S11, S12,...Sn4)의 2개의 제1 단자들에 접속된다. 제2 배선쌍 (y1,y2,y3,y4)은 2개의 배선이 동일한 방향으로 나란히 배열되어 있으며 제1 배선쌍 (x1,x2,x3,x4)과 수직으로 배치되고, 제1 신경망소자들(S11, S12,...Sn4)의 2개의 제2 단자들에 접속된다.The first neural network elements (S11, S12,...Sn4) and the second neural network elements (N1, N2, N3, N4) each have four terminals. Also, there are two wire pairs that intersect each other. The first wire pair (x1, x2, x3, x4) has two wires arranged side by side in the same direction and is connected to the two first terminals of the first neural network elements (S11, S12,...Sn4). . The second wire pair (y1, y2, y3, y4) has two wires arranged side by side in the same direction and is arranged perpendicular to the first wire pair (x1, x2, x3, x4), and the first neural network elements ( It is connected to two second terminals (S11, S12,...Sn4).
한편 제2 배선쌍의 일단에는 제2 신경망소자들(N1, N2, N3, N4)의 두단자가 연결되며, 상기 제2 신경망소자들(N1, N2, N3, N4)의 다른 두단자는 출력단자(O2)로 연결된다.Meanwhile, two terminals of the second neural network elements (N1, N2, N3, N4) are connected to one end of the second wiring pair, and the other two terminals of the second neural network elements (N1, N2, N3, N4) are output. Connected to terminal (O2).
제1 신경망소자들(S11, S12,..,Sn4) 과 제2 신경망소자들(N1, N2, N3, N4)들은 각각 4 개의 단자 전극을 기반으로 하며, 프로그래밍 경로가 읽기 작업 경로와 분리되어 있으며, 입력과 출력이 모두 전압 신호이다. 제1 신경망소자는 spin-S소자, 제2 신경망소자는 spin-N소자로 구성될 수 있다. The first neural network elements (S11, S12,...,Sn4) and the second neural network elements (N1, N2, N3, N4) are each based on four terminal electrodes, and the programming path is separated from the read operation path. Both input and output are voltage signals. The first neural network element may be comprised of a spin-S element, and the second neural network element may be comprised of a spin-N element.
작동 원리는 다음과 같다. 임의의 라인 m을 기준으로 설명한다. 입력 진폭에 비례하는 입력 전압 (xn)은 신경망 회로 네트워크에 도입되어 프로그래밍 경로에 해당하는 홀 검출 전극에서 시냅스 가중치 (snm)에 의해 가중치가 부여된 전하 캐리어를 누적하게 된다. 그런 다음 동일한 열의 모든 가중치에서 발생하는 누적 전하가 모여 홀 전압을 발생시킨다. 따라서 본 신경망회로는, 연결된 모든 가중치의 모든 정보가 편리한 전압 형식으로 간단히 통합되게 된다. 얻어진 총 홀전압은 필요에 따라 연산 증폭기를 통해 적절하게 조정치(ym)로 조정되어 다음 뉴런단계에 공급될 수 있다. 이 작동 원리는 벡터 행렬 곱셈 (VMM)을 따른다. ym = AΣxnsnm, 여기서 A는 연산 증폭기의 이득이다. 연산 증폭기는 반드시 필요하지는 않다. 도 1의 도시에서도 생략되어 있다. 한편 대응되는 ym은 동일한 방식으로 작동하도록 연결된 제2 신경망소자(spin-N, Nm)을 구동하여, 각 열에서 활성화 출력 (Om)을 생성한다.The operating principle is as follows. The explanation is based on an arbitrary line m. An input voltage (x n ) proportional to the input amplitude is introduced into the neural network circuit, causing accumulation of charge carriers weighted by the synaptic weight (s nm ) at the Hall detection electrode corresponding to the programming path. Then, the accumulated charges from all weights in the same column come together to generate the Hall voltage. Therefore, in this neural network circuit, all information from all connected weights is simply integrated into a convenient voltage format. The obtained total Hall voltage can be adjusted to an appropriate adjustment value (y m ) through an operational amplifier as needed and supplied to the next neuron stage. This operating principle follows vector matrix multiplication (VMM). y m = AΣx n s nm , where A is the gain of the operational amplifier. An operational amplifier is not strictly necessary. It is also omitted in the illustration of FIG. 1. Meanwhile, the corresponding y m drives a second neural network element (spin-N, Nm) connected to operate in the same manner, generating an activation output (O m ) in each column.
도 2는 본 발명의 신경망 회로에서, ym과 Om의 응답 곡선을 나타내는 그래프들이다. 앞서 언급 한 동작 원리를 실험적으로 입증하기 위해, 제1신경망소자(스핀 S)와 제2 신경망소자(스핀 N) 으로 구성된 신경망회로에서 디바이스들의 입력(X1)과 가중치 값들에 대하여 ym과 Om의 응답 곡선을 시뮬레이션한 그래프이다. Figure 2 is a graph showing the response curves of y m and O m in the neural network circuit of the present invention. In order to experimentally prove the above-mentioned operating principle, y m and O m are measured for the input ( This is a graph simulating the response curve.
도 2를 참조하면, 입력전압 (X1)에 대하여 각각 다른 가중치를 가지는 경우 y2에서 출력 값을 도시하여 보면, 명확하게 선형으로 입력과 가중치(홀 저항)에 의존함을 확인할 수 있다(도 2의 좌측그림). 또한 제2 신경망소자(spin-N)의 최종 출력(O2)을 y2 레벨에 따라 대표적인 활성화 곡선을 생성하였다. 이러한 실험적 관찰은 본 신경망회로 네트워크에서 성공적인 벡터 행렬 곱셈 (VMM) 동작을 보여준다. Referring to FIG. 2, when each has a different weight for the input voltage (X1), at y 2 When the output value is plotted, it can be seen that it clearly depends linearly on the input and weight (Hall resistance) (left figure in FIG. 2). In addition, a representative activation curve was generated for the final output (O 2 ) of the second neural network device (spin-N) according to the y2 level. These experimental observations demonstrate successful vector matrix multiplication (VMM) operation in this neural network.
도 3 내지 도 5는 본 발명의 신경망회로를 검증하기 위해 2개의 제1신경망소자(스핀 S)와 1개의 제2 신경망소자(스핀 N)을 이용하여 (2S + 1N)의 패턴 분류의 실험적 분류를 증명하기 위한 도면들이다. 3 to 5 are experimental classifications of pattern classification of (2S + 1N) using two first neural network elements (spin S) and one second neural network element (spin N) to verify the neural network circuit of the present invention. These are drawings to prove.
도 3을 참조하면, 제1신경망소자(스핀 S)와 1개의 제2 신경망소자(스핀 N)의 각 디바이스는 인쇄 회로 기판에서 전기적으로 와이어로 연결된다. 통합 신경망 회로 네트워크 동작에 대한 개념 증명 실험을 수행하기 위해 단일 외부 자기장 하에서 제1신경망소자(spin-S)에 대해 90도 회전 된 제2 신경망소자(spin-N)를 설치했다. Referring to FIG. 3, each device of a first neural network element (spin S) and one second neural network element (spin N) is electrically connected with a wire on a printed circuit board. To perform a proof-of-concept experiment on the operation of the integrated neural network circuit network, a second neural network element (spin-N) was installed rotated 90 degrees with respect to the first neural network element (spin-S) under a single external magnetic field.
도 4및 도 5를 참조하면, 구체적으로는 입력으로 2개의 수동 패턴들을 사용했다. 여기서 가중치 컬럼은 이미 패턴들 중의 하나에 프로그램되었다. 입력 펄스가 3V 및 0V (각각 패턴의 흑, 백 픽셀에 해당) 인 경우 신경망 네트워크는 일치하는 컬럼에 대해 더 높은 활성화 값을 제공합니다. 도 5를 참조하면, 단순한 패턴 분류 테스크를 위하여 수행된 패턴 1과 패턴 2에 대응되는 2 개의 출력 레벨을 도시하고 있다.Referring to Figures 4 and 5, specifically, two manual patterns were used as input. Here the weight column has already been programmed into one of the patterns. When the input pulses are 3V and 0V (corresponding to black and white pixels in the pattern, respectively), the neural network provides higher activation values for the matching columns. Referring to FIG. 5, it shows two output levels corresponding to pattern 1 and pattern 2 performed for a simple pattern classification task.
도 6은 본 발명의 실시예에 따른 신경망 네크워크의 실제 동작 예를 설명하기 위한 개념도이다. Figure 6 is a conceptual diagram for explaining an actual operation example of a neural network network according to an embodiment of the present invention.
동작전압과 출력 홀전압은 적절한 범위에서 조절가능하도록 구현된다. 첫째로, 우리는 spin-S의 리드전압을 1 mV로 가진다고 가정하고, spin-S 로부터 출력 홀전압의 평균을 1 mV로, spin-N의 동작전압은 100 mV로, spin-N의 출력 홀전압은 1mV로 가정한다. The operating voltage and output Hall voltage are implemented to be adjustable within an appropriate range. First, we assume that the lead voltage of spin-S is 1 mV, the average of the output Hall voltage from spin-S is 1 mV, the operating voltage of spin-N is 100 mV, and the output Hall voltage of spin-N is 100 mV. The voltage is assumed to be 1mV.
따라서 이하에서는 본 발명에 따라 제안된 신경망 네크워크에서 어떠한 방식으로 통합되어 동작하는지 구체적으로 설명하고자 한다.Therefore, the following will specifically explain how it is integrated and operates in the neural network proposed according to the present invention.
여기서, 제1 신경망소자(spin-S)의 READ 전압을 1 mV로 가정하고, 제1 신경망소자(spin-S)로부터 출력 홀전압의 평균을 1 mV로, 제2 신경망소자(spin-N)의 동작전압은 100 mV로, 제2 신경망소자(spin-N)의 출력 홀전압은 1mV로 가정한다. Here, assuming that the READ voltage of the first neural network element (spin-S) is 1 mV, the average of the output Hall voltage from the first neural network element (spin-S) is 1 mV, and the average of the Hall voltage output from the first neural network element (spin-S) is 1 mV, and the average of the Hall voltage output from the first neural network element (spin-S) is 1 mV, The operating voltage of is assumed to be 100 mV, and the output Hall voltage of the second neural network element (spin-N) is assumed to be 1 mV.
입력신호들 ( xm) 은 1mV가 각각의 제1 신경망소자들(spin-S, Snm) 에 인가된다. 개별적인 제1 신경망소자(spin-S)는 각각의 가중치를 반영함으로써 출력 홀전압(VH) 를 생성한다. 이것은 평균하여 1 mV의 범위이다. 제2 신경망소자(spin-N, N1)의 첫번째 열(row)에서 각 개별 제1 신경망소자(spin-S,Sn1)로부터의 출력 홀 전압을 합산한다. 만약 각 컬럼에 100개의 제1 신경망소자(spin-S)가 있는 것으로 가정하면, 제1 신경망소자(spin-S)의 적절한 숫자가 적절한 가중치를 가진다는 전제 하에서, 제2 신경망소자(N1)에서의 전체 입력 전압은 100mV의 동작전압에 도달한다, 제2 신경망소자(N1)에 전체 입력으로부터, 제2 신경망소자 (N1) 은 ~ 1mV의 출력 홀 전압을 생성한다. 1mV 출력은 해당 네트워크의 출력신호로 사용되거나, 다층구조를 가지고 있는 네트워크의 경우 다음 입력레이어의 첫번째 row에서 제1스핀소자들로 들어간다. READ 전압이 1mV로 세팅되었으므로 제2 스핀소자(N1)로부터 1mV 가 다음 레이어에서 동작한다. Input signals ( xm ) 1 mV is applied to each first neural network element (spin-S, S nm ). Each first neural network element (spin-S) generates an output Hall voltage (V H ) by reflecting each weight. This averages in the range of 1 mV. The output Hall voltages from each individual first neural network element (spin-S, S n1 ) are summed in the first row of the second neural network element (spin-N, N 1 ). If it is assumed that there are 100 first neural network elements (spin-S) in each column, under the premise that the appropriate number of first neural network elements (spin-S) has an appropriate weight, the second neural network element (N 1 ) The total input voltage at reaches an operating voltage of 100 mV. From the total input to the second neural network element N 1 , the second neural network element N 1 generates an output Hall voltage of ~ 1 mV. The 1mV output is used as the output signal of the corresponding network, or in the case of a network with a multi-layer structure, it goes into the first spin elements in the first row of the next input layer. Since the READ voltage is set to 1mV, 1mV from the second spin device (N 1 ) operates in the next layer.
제1 신경망소자와 제2 신경망소자 사이에는 필요에 따라 op-amp 가 삽입될 수 있지만 실제 적용에 있어서는 적절한 동작 전압과 출력 전압을 최적화 함으로써 op-amp는 없애는 것도 가능하다. An op-amp can be inserted between the first neural network element and the second neural network element as needed, but in actual application, it is also possible to eliminate the op-amp by optimizing the appropriate operating voltage and output voltage.
다음으로, 제1신경망소자(스핀 S 소자)와 1개의 제2 신경망소자(스핀 N 소자)에 대해 상세히 설명한다.Next, the first neural network element (spin S element) and one second neural network element (spin N element) will be described in detail.
도 7은 본 발명의 바람직한 실시예에 따른 신경망소자를 도시한 사시도이다. Figure 7 is a perspective view showing a neural network device according to a preferred embodiment of the present invention.
도 7을 참조하면, 본 실시예의 신경망소자는 기판(200) 상에 산화층(201), 강자성층(202) 및 비자성 금속층(203)을 가지고, 산화방지층(204)를 더 포함할 수 있다. Referring to FIG. 7, the neural network device of this embodiment has an oxide layer 201, a ferromagnetic layer 202, and a non-magnetic metal layer 203 on a substrate 200, and may further include an anti-oxidation layer 204.
산화층(201)으로는 특별히 한정되지 않은 산화물질로 이루어진 층일 수 있으며, 바람직하게는, MgOx 또는 AlOx의 산화물이 사용된다. 강자성층(202)은 Co, Fe, Ni, Mn 또는 이들의 하나 이상의 합금을 가지며, CoFeB, NiFe, CoPt, CoPd, FePt 또는 FePd를 포함함이 바람직하다. 비자성 금속층(203)은 Ta, Hf, W, Nb, Pt 또는 이들의 합금을 가진다. The oxide layer 201 may be a layer made of an oxide material that is not particularly limited, and preferably an oxide of MgOx or AlOx is used. The ferromagnetic layer 202 has Co, Fe, Ni, Mn, or one or more alloys thereof, and preferably includes CoFeB, NiFe, CoPt, CoPd, FePt, or FePd. The non-magnetic metal layer 203 has Ta, Hf, W, Nb, Pt, or an alloy thereof.
강자성층(202)은 수직자기이방성을 가진다. 수직자기 이방성을 위해 상기 강 자성층(202)은 0.5nm 내지 2.0nm의 두께를 가짐이 바람직하다. 강자성층(202)의 두께가 0.5nm 미만이면, 강자성 층(202)이 균일한 막질로 형성되지 못하고, 산화층(201) 상에서 아일랜드 형태로 형성되는 문제가 발생 된다. 또한, 강자성층(202)의 두께가 2.0nm를 상회하면 강자성층(202)의 수직자기 이방성을 확보할 수 없다. The ferromagnetic layer 202 has perpendicular magnetic anisotropy. For perpendicular magnetic anisotropy, the ferromagnetic layer 202 preferably has a thickness of 0.5 nm to 2.0 nm. If the thickness of the ferromagnetic layer 202 is less than 0.5 nm, the ferromagnetic layer 202 is not formed with a uniform film material, and a problem occurs in that the ferromagnetic layer 202 is formed in an island shape on the oxide layer 201. Additionally, if the thickness of the ferromagnetic layer 202 exceeds 2.0 nm, the perpendicular magnetic anisotropy of the ferromagnetic layer 202 cannot be secured.
또한, 상기 비자성 금속층(203)에 전류를 흘려주면 비자성 금속층(203)에서 스핀 홀 효과가 발생된다. 스핀 홀 효과에 의해 동일한 스핀을 가진 스핀 전자들은 특정의 방향에 응집된다. 이를 통해, 비자성 금속층(203) 하부에 형성된 강자성층(202)에서는 강자성체의 자화에 회전력이 가해진다. 이를 스핀 궤도 토크라 지칭한다. 즉, 강자성층(202)에서는 스핀 궤도 토크에 의해 전류가 인가되는 방향의 영향을 받아 특정 방향으로 자화가 정렬되는 현상이 발생된다. Additionally, when current flows through the non-magnetic metal layer 203, a spin Hall effect occurs in the non-magnetic metal layer 203. Due to the spin Hall effect, spin electrons with the same spin are concentrated in a specific direction. Through this, a rotational force is applied to the magnetization of the ferromagnetic material in the ferromagnetic layer 202 formed below the non-magnetic metal layer 203. This is called spin-orbit torque. That is, in the ferromagnetic layer 202, a phenomenon occurs in which magnetization is aligned in a specific direction under the influence of the direction in which the current is applied due to spin-orbit torque.
또한, 강자성층(202)의 표면과 평행한 방향이면서 인가되는 전류와 수직한 방향으로 자계가 인가되면, 강자성층에서 점진적인 자화의 반전이 유도될 수 있으며, 펄스 전압의 인가 횟수에 따라 자구벽이 이동된다. 자구벽의 이동에 의해 수직자기이방성을 가지는 강자성층의 영역은 확대되며, 이는 이상 홀 효과(Anomalous Hall Effect)를 증가시키고, 홀 전압을 발생시킨다. 이를 통해 홀 전압의 점진적인 증가현상이 관찰될 수 있다. In addition, when a magnetic field is applied in a direction parallel to the surface of the ferromagnetic layer 202 and perpendicular to the applied current, a gradual reversal of magnetization may be induced in the ferromagnetic layer, and the magnetic domain wall may change depending on the number of applications of the pulse voltage. It is moved. By moving the magnetic domain wall, the area of the ferromagnetic layer with perpendicular magnetic anisotropy is expanded, which increases the anomalous Hall effect and generates a Hall voltage. Through this, a gradual increase in Hall voltage can be observed.
도 8은 본 발명의 바람직한 실시예에 따른 도 1의 신경망 네트워크를 AA' 라인을 따라 절단한 모식도이다. Figure 8 is a schematic diagram of the neural network of Figure 1 cut along line AA' according to a preferred embodiment of the present invention.
도 8을 참조하면, 제1 신경망소자(Sn2)와 제2 신경망소자(y2)는 도 7 에서처럼 각각 적어도 산화층, 강자성층 및 비자성 금속층, 산화방지층을 포함하고 있다. 도 8의 도시에서는 산화층은 MgO, 강자성층은 CoFeβ, 비자성 금속층은 W, 산화방지층은 Ta를 예로 들어 표시하고 있다. 제1 신경망소자(Sn2)와 제2 신경망소자(y2)는 서로 동일한 적층 구조를 가지고 있으면서 적어도 하나의 두께 또는 크기가 상이하게 구성하는 것이 가능하다. Referring to FIG. 8, the first neural network element (Sn2) and the second neural network element (y2) each include at least an oxide layer, a ferromagnetic layer, a non-magnetic metal layer, and an anti-oxidation layer, as shown in FIG. 7. In the illustration of FIG. 8, the oxide layer is MgO, the ferromagnetic layer is CoFeβ, the non-magnetic metal layer is W, and the anti-oxidation layer is Ta. The first neural network element (Sn2) and the second neural network element (y2) can have the same stacked structure but have at least one different thickness or size.
제1 신경망소자(Sn2)와 제2 신경망소자(y2)는 구조를 동일하게 하는 것이 가능하다. 기본적인 소자 동작의 원리는 전류를 가해주면 자구벽이 이동하고, 자구벽이 Hall 전압이 관측되는 영역에 들어오면, 관측되는 영역내에 up/down domain의 면적비에 대응되는 홀 전압이 나오게 된다. (예: 홀전압의 범위 = -1 to +1, when 모두다down domain and 모두다 up domain). It is possible for the first neural network element (Sn2) and the second neural network element (y2) to have the same structure. The basic principle of device operation is that when a current is applied, the magnetic domain wall moves, and when the magnetic domain wall enters the area where the Hall voltage is observed, the Hall voltage corresponding to the area ratio of the up/down domain within the observed area appears. (Example: Hall voltage range = -1 to +1, when both down domain and all up domain).
제1 신경망소자(스핀 S 소자)의 경우, -1에서 +1 사이의 다양한 홀전압을 표현해야 하기 때문에, 자구벽이 Hall 전압이 관측되는 영역에서 미세하고 움직여줘야 한다. 즉, 자구벽의 이동을 위한 전류가 매우 작은 것이 더 유리하다. 그리고 자구벽의 위치는 Hall 전압이 관측되는 영역 안에서 움직인다. In the case of the first neural network device (spin S device), since various Hall voltages between -1 and +1 must be expressed, the magnetic domain walls must be finely moved in the area where the Hall voltage is observed. In other words, it is more advantageous for the current for movement of the magnetic domain wall to be very small. And the position of the magnetic domain wall moves within the area where the Hall voltage is observed.
제2 신경망소자(스핀 N 소자)의 경우 , -1의 Hall 전압을 표현하다가, 신호가 충분히 누적되면 +1의 전압을 표시해야 한다. 그래서 Hall 전압이 관측되는 영역 훨씬 이전에, 자구벽이 존재하고 전류에 의해 움직이다가 (이때까지는 Hall 전압은 -1 그대로), 자구벽이 Hall 전압이 관측되는 영역에 들어오면 홀 전압이 바뀌게 됩니다. 즉, S 스핀소자에 비해 자구벽의 이동이 훨씬 커야 해서, 동작전류가 상대적으로 크게 구성된다. In the case of the second neural network device (spin N device), the Hall voltage of -1 should be expressed, and when the signal is sufficiently accumulated, the voltage of +1 should be displayed. So, long before the area where the Hall voltage is observed, the magnetic domain wall exists and moves by the current (up to this point, the Hall voltage remains -1), but when the magnetic domain wall enters the area where the Hall voltage is observed, the Hall voltage changes. . In other words, the movement of the magnetic domain wall must be much larger than that of the S spin device, so the operating current is relatively large.
또한, 제1 및 제2 신경망소자는 모두 전압 기반 동작이 아닌 전류기반 동작입니다. 즉, 동작 전류밀도는 기본적으로 제2 신경망소자가 제1 신경망소자 보다 크고, 동작 전압은 소자의 저항에 따라 결정된다. 즉, 신경망 네트워크에 포함되는 시냅스의 개수에 따라 뉴런의 동작전압을 결정할 때는, 뉴런 소자의 저항을 잘 조절 (소자의 길이 등) 하여 동작 전류밀도가 흐르게 하는 동작 전압을 결정한다. Additionally, both the first and second neural network elements operate based on current rather than voltage. That is, the operating current density of the second neural network device is basically greater than that of the first neural network device, and the operating voltage is determined according to the resistance of the device. In other words, when determining the operating voltage of a neuron according to the number of synapses included in the neural network, the resistance of the neuron device is carefully adjusted (length of the device, etc.) to determine the operating voltage that allows the operating current density to flow.
도 9는 본 발명의 다른실시예에 따른 신경망 회로도이다.Figure 9 is a neural network circuit diagram according to another embodiment of the present invention.
설명의 편의점을 위해, 도 1과의 차이점을 위주로 설명한다. 도 9를 참조하면, 제1 신경망소자들(S11, S12,...Sn4) 과 제2 신경망소자들(N1, N2, N3, N4)은 각각 4개의 단자를 가진다. 그리고, 서로 각각 교차하는 2개의 배선쌍이 존재한다. 제1 배선쌍 (x1,x2,x3,x4)은 2개의 배선이 동일한 방향으로 나란히 배열되어 있으며 제1 신경망소자들(S11, S12,...Sn4)의 2개의 제1 단자들에 접속된다. 제2 배선쌍 (y1,y2,y3,y4)은 2개의 배선이 동일한 방향으로 나란히 배열되어 있으며 제1 배선쌍 (x1,x2,x3,x4)과 수직으로 배치되고, 제1 신경망소자들(S11, S12,...Sn4)의 2개의 제2 단자들에 접속된다. 도9의 도시에서는 제2 배선쌍 (y1,y2,y3,y4)이 각 제1 신경망소자들(S11, S12,...Sn4)을 직렬로 연결하고 있는 구조를 가지고 있다. 이런 점이 도 1의 도시와는 다른 차이점이다. For convenience of explanation, the description will mainly focus on the differences from FIG. 1. Referring to FIG. 9, the first neural network elements (S11, S12,...Sn4) and the second neural network elements (N1, N2, N3, N4) each have four terminals. Also, there are two wire pairs that intersect each other. The first wire pair (x1, x2, x3, x4) has two wires arranged side by side in the same direction and is connected to the two first terminals of the first neural network elements (S11, S12,...Sn4). . The second wire pair (y1, y2, y3, y4) has two wires arranged side by side in the same direction and is arranged perpendicular to the first wire pair (x1, x2, x3, x4), and the first neural network elements ( It is connected to two second terminals (S11, S12,...Sn4). In Figure 9, the second wiring pair (y1, y2, y3, y4) has a structure in which each first neural network element (S11, S12,...Sn4) is connected in series. This is a different point from the city in Figure 1.
한편 제2 배선쌍의 일단에는 제2 신경망소자들(N1, N2, N3, N4)의 두단자가 연결되며, 상기 제2 신경망소자들(N1, N2, N3, N4)의 다른 두단자는 출력단자(O2)로 연결된다.Meanwhile, two terminals of the second neural network elements (N1, N2, N3, N4) are connected to one end of the second wiring pair, and the other two terminals of the second neural network elements (N1, N2, N3, N4) are output. Connected to terminal (O2).
제1 신경망소자들(S11, S12,..,Sn4) 과 제2 신경망소자들(N1, N2, N3, N4)들은 각각 4 개의 단자 전극을 기반으로 하며, 프로그래밍 경로가 읽기 작업 경로와 분리되어 있으며, 입력과 출력이 모두 전압 신호이다. 제1 신경망소자는 spin-S소자, 제2 신경망소자는 spin-N소자로 구성될 수 있다. The first neural network elements (S11, S12,...,Sn4) and the second neural network elements (N1, N2, N3, N4) are each based on four terminal electrodes, and the programming path is separated from the read operation path. Both input and output are voltage signals. The first neural network element may be comprised of a spin-S element, and the second neural network element may be comprised of a spin-N element.
전술한 본 발명에 따른 에 대한 바람직한 실시예에 대하여 설명하였지만, 본 발명은 이에 한정되는 것이 아니고 특허청구범위와 발명의 상세한 설명 및 첨부한 도면의 범위 안에서 여러 가지로 변형하여 실시하는 것이 가능하고 이 또한 본 발명에 속한다.Although the preferred embodiments of according to the present invention have been described above, the present invention is not limited thereto, and can be implemented with various modifications within the scope of the claims, the detailed description of the invention, and the accompanying drawings. It also belongs to the present invention.
Claims (6)
서로 교차하는 제1 배선쌍과 제2 배선쌍이 교차하는 각 지점에 상기 제1 신경망소자들이 배치되어 있고,
상기 제1 배선쌍은 상기 제1 신경망소자들의 프로그램 단자 양단에 각각 접속되고,
상기 제2 배선쌍은 상기 제1 신경망소자들 리드 단자 양단에 각각에 접속되어, 상기 제2 배선쌍에 의해 각 제1 신경망소자들은 직렬 또는 병렬로 접속되고,
상기 제2 배선쌍의 일단에는 하나의 제2 신경망소자의 프로그램 단자 양단이 각각 연결되고,
상기 하나의 제2 신경망소자의 리드 단자 양단 각각은 출력으로 연결되며,
상기 제1 신경망소자와 상기 제2 신경망소자는 전압신호에 의해 동작되는 소자인 것을 특징으로 하는 신경망 회로.
A neural network circuit composed of a plurality of first neural network elements and second neural network elements each having four terminals,
The first neural network elements are arranged at each point where the first and second wire pairs intersect each other,
The first wire pair is connected to both ends of the program terminals of the first neural network elements, respectively,
The second wiring pair is connected to both ends of lead terminals of the first neural network elements, so that each of the first neural network elements is connected in series or parallel by the second wiring pair,
Both ends of the program terminal of a second neural network element are connected to one end of the second wiring pair, respectively,
Both ends of the lead terminal of the second neural network element are connected to an output,
A neural network circuit, wherein the first neural network element and the second neural network element are elements operated by a voltage signal.
상기 제1 신경망소자와 상기 제2 신경망소자는 서로 동작전압이 상이한 것으로 특징으로 하는 신경망 회로.
According to claim 1,
A neural network circuit, wherein the first neural network element and the second neural network element have different operating voltages.
상기 제1 신경망소자는 스핀 S 소자이고, 상기 제2 신경망소자는 스핀 N 소자인 것을 특징으로 하는 신경망 회로.
According to claim 1,
A neural network circuit, wherein the first neural network element is a spin S element, and the second neural network element is a spin N element.
상기 제1 신경망소자와 상기 제2 신경망소자는 각각 적어도 터널 베리어층, 비자성 금속층, 강자성층 및 비자성 금속층을 포함하는 것을 특징으로 하는 신경망 회로.
According to claim 1,
A neural network circuit, wherein the first neural network element and the second neural network element each include at least a tunnel barrier layer, a non-magnetic metal layer, a ferromagnetic layer, and a non-magnetic metal layer.
상기 제1 신경망소자와 상기 제2 신경망소자는 서로 동일한 적층 구조를 가지고 있으면서 적어도 하나의 두께 또는 크기가 상이한 것으로 특징으로 하는 신경망 회로.
According to claim 1,
A neural network circuit, wherein the first neural network element and the second neural network element have the same stacked structure but have at least one thickness or size different from each other.
상기 제2 신경망소자의 동작 전류밀도가 상기 제1 신경망소자 보다 큰 것을 특징으로 하는 신경망 회로.
According to claim 1,
A neural network circuit, wherein the operating current density of the second neural network element is greater than that of the first neural network element.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210084406A KR102624400B1 (en) | 2021-06-29 | 2021-06-29 | Artificial Neural Network Using 4-terminal neuromorphic devices |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210084406A KR102624400B1 (en) | 2021-06-29 | 2021-06-29 | Artificial Neural Network Using 4-terminal neuromorphic devices |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20230001645A KR20230001645A (en) | 2023-01-05 |
KR102624400B1 true KR102624400B1 (en) | 2024-01-15 |
Family
ID=84925939
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210084406A Active KR102624400B1 (en) | 2021-06-29 | 2021-06-29 | Artificial Neural Network Using 4-terminal neuromorphic devices |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102624400B1 (en) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20210150326A1 (en) * | 2018-07-26 | 2021-05-20 | Thales | Synaptic chain comprising spintronic resonators based on the spin diode effect, and neural network comprising such a synaptic chain |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10739186B2 (en) * | 2017-11-20 | 2020-08-11 | Samsung Electronics Co., Ltd. | Bi-directional weight cell |
KR102452531B1 (en) | 2019-01-03 | 2022-10-11 | 한양대학교 산학협력단 | Method of Neuromorphic Device using Spin-Orbit Torque |
-
2021
- 2021-06-29 KR KR1020210084406A patent/KR102624400B1/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20210150326A1 (en) * | 2018-07-26 | 2021-05-20 | Thales | Synaptic chain comprising spintronic resonators based on the spin diode effect, and neural network comprising such a synaptic chain |
Also Published As
Publication number | Publication date |
---|---|
KR20230001645A (en) | 2023-01-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Sengupta et al. | Hybrid spintronic-CMOS spiking neural network with on-chip learning: Devices, circuits, and systems | |
US10885960B2 (en) | Spin device, and operating method therefor and manufacturing method therefor | |
KR102452531B1 (en) | Method of Neuromorphic Device using Spin-Orbit Torque | |
US11514301B2 (en) | Magnetic domain wall drift for an artificial leaky integrate-and-fire neuron | |
US20190272870A1 (en) | Probabilistic neuron circuits | |
KR102126791B1 (en) | Neural networks using cross-point array and pattern readout method thereof | |
US10635970B2 (en) | Racetrack synapse for neuromorphic applications | |
US5864498A (en) | Ferromagnetic memory using soft magnetic material and hard magnetic material | |
Sengupta et al. | Toward a spintronic deep learning spiking neural processor | |
KR102624400B1 (en) | Artificial Neural Network Using 4-terminal neuromorphic devices | |
US11977970B2 (en) | Spintronic computing architecture and method | |
US20220076108A1 (en) | Neuron and neuromorphic system including the same | |
JPWO2019131147A1 (en) | How to use multiply-accumulate calculator, neuromorphic device and product-sum calculator | |
US12361267B2 (en) | Operation method of neural network element using spin-orbit torque | |
US20240122075A1 (en) | Activation function generator based on magnetic domain wall driven magnetic tunnel junction and manufacturing method | |
US11386320B2 (en) | Magnetic domain wall-based non-volatile, linear and bi-directional synaptic weight element | |
KR102571118B1 (en) | Neuromorphic apparatus | |
KR102571115B1 (en) | Neuromorphic apparatus and driving method thereof | |
KR102390388B1 (en) | Neuromorphic apparatus | |
US12315542B2 (en) | Memristor element with a magnetic domain wall in a magnetic free layer moved by spin orbit torque, synapse element and neuromorphic processor including the same | |
EP3798914A1 (en) | Artificial synapse | |
US11875833B2 (en) | Stochastic memristive devices based on arrays of magnetic tunnel junctions | |
US11127446B2 (en) | Stochastic memristive devices based on arrays of magnetic tunnel junctions | |
CN113140673A (en) | Synapse device based on antiferromagnetic material and regulation and control method thereof | |
KR20230115375A (en) | Spintronics-based artificial synaptic device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20210629 |
|
PA0201 | Request for examination | ||
PG1501 | Laying open of application | ||
E902 | Notification of reason for refusal | ||
PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20230118 Patent event code: PE09021S01D |
|
E90F | Notification of reason for final refusal | ||
PE0902 | Notice of grounds for rejection |
Comment text: Final Notice of Reason for Refusal Patent event date: 20230830 Patent event code: PE09021S02D |
|
E701 | Decision to grant or registration of patent right | ||
PE0701 | Decision of registration |
Patent event code: PE07011S01D Comment text: Decision to Grant Registration Patent event date: 20231129 |
|
GRNT | Written decision to grant | ||
PR0701 | Registration of establishment |
Comment text: Registration of Establishment Patent event date: 20240109 Patent event code: PR07011E01D |
|
PR1002 | Payment of registration fee |
Payment date: 20240110 End annual number: 3 Start annual number: 1 |
|
PG1601 | Publication of registration |