|
| 1 | +--- |
| 2 | +title: "(DL) MySQL Dump ERROR" |
| 3 | +categories: |
| 4 | + - MySQL Workbench |
| 5 | +tags: |
| 6 | + - MySQL |
| 7 | + - mysqldump |
| 8 | +comments: true |
| 9 | +--- |
| 10 | +* 목차 |
| 11 | +{:toc} |
| 12 | + |
| 13 | +# 1. Perceptron |
| 14 | + |
| 15 | +## 개념 |
| 16 | +- 인공 신경망 모형의 하나인 퍼셉트론은 1957년에 Rosenblatt라는 사람에 의해서 처음 고안된 생각보다 오래된 알고리즘, 뉴런(neuron)의 시냅스(synapse)를 모방 |
| 17 | +- 뉴런->시냅스->뉴런 |
| 18 | +- 시냅스: 특정 자극(Input) 이 있다면 그 자극이 어느 역치(threshold) 이상이여야 반응(Output)을 한다. |
| 19 | +- 퍼셉트론: 입력 신호의 총합이 정해진 임계값($\theta$) 넘었을 때 $1$을 출력, 넘지 못하면 $0$ 또는 $-1$ 출력 |
| 20 | +<center><img src="https://mioscode.github.io/assets/images/neuron_perceptron.png" width="40%"></center> |
| 21 | +(출처: https://www.slideshare.net/jbhuang/lecture-29-convolutional-neural-networks-computer-vision-spring2015) |
| 22 | + |
| 23 | +각 입력신호에 고유한 weight 부여되며 기계학습은 이 weight(입력을 조절하니 매개변수로도 볼 수 있음)의 값을 정하는 작업 |
| 24 | + |
| 25 | + |
| 26 | +## 학습방법 |
| 27 | +1. 인간이 임의로 weight 설정하고 데이터 입력 |
| 28 | +2. 머신이 학습 데이터를 퍼셉트론 모형에 입력하며 분류가 잘못됐을 때 weight를 개선해 나간다 |
| 29 | + |
| 30 | + |
| 31 | +## 선형분류 |
| 32 | +학습이 반복될수록 선 기울기 달라지고 weight 조정됨 |
| 33 | + |
| 34 | + |
| 35 | +## 퍼셉트론 한계점 |
| 36 | + |
| 37 | +### XOR |
| 38 | + |
| 39 | +x1과 x2 중 어느 한쪽이 1일 때만 1을 출력 |
| 40 | + |
| 41 | +|x1|x2|y| |
| 42 | +|:-:|:-:|:-:| |
| 43 | +|0|0|0| |
| 44 | +|1|0|1| |
| 45 | +|0|1|1| |
| 46 | +|1|1|0| |
| 47 | + |
| 48 | +선형 분류 불가능 |
| 49 | + |
| 50 | + |
| 51 | +## 다층 퍼셉트론을 통한 한계 극복 |
| 52 | + |
| 53 | + |
| 54 | + |
| 55 | +# Neural Network |
| 56 | + |
| 57 | +## 개념 |
| 58 | +Input(입력층), Hidden(은닉층), Output(출력층) |
| 59 | + |
| 60 | + |
| 61 | +## Activation Function |
| 62 | + |
| 63 | +출력 값 결정하게 하는 역할, 변환기 |
| 64 | +AND, OR, NAND, XOR Gate 다음 단계 |
| 65 | + |
| 66 | +### 계단 함수 (Step Function) |
| 67 | + |
| 68 | + |
| 69 | + |
| 70 | +### 시그모이드 함수 (Sigmoid Function) |
| 71 | + |
| 72 | +극단적인 계단 함수 대체하여 사용 |
| 73 | + |
| 74 | + |
| 75 | + |
| 76 | +# 오차 역전파 (Error Backpropagatin) |
| 77 | + |
| 78 | +* 순전파(Forwardpropagation) : 순차적으로 Input -> Output 가중치를 업데이트하면서 활성화 함수를 통해서 결과값을 가져오는 것 |
| 79 | + |
| 80 | +* 역전파 : 결과 값을 통해서 다시 역으로 input 방향으로 오차를 다시 보내며 가중치를 재업데이트 하는 것이다. 물론 결과에 영향을 많이 미친 노드(뉴런)에 더 많은 오차를 돌려줄 것이다. |
| 81 | + |
| 82 | + |
| 83 | + |
| 84 | +* 한번 역전파를 실행하는 것을 1 epoch 주기라고함 |
| 85 | +* epoch를 늘릴 수록 가중치가 계속 업데이트(학습)되면서 점점 오차가 줄어나가는 방법 |
| 86 | + |
| 87 | + |
| 88 | + |
0 commit comments