1. 딥러닝 모델링: ② 이진분류
※ 함수(Fuction)
- 입력값(input)을 넣으면, 출력값(output)을 준다.
- 입력값을 x, 출력값을 y로 표현
- 따라서 x를 t로 변환(transformation)시켜준다고 할 수 있다.
※ 예시
- f(x) = x^2
- x = [1, 2, 3, 4, ...] → y = [1, 4, 9, 16, ...]
1.1. 딥러닝 구조 - 이진분류
- Survived 를 예측하기 위한 함수
- f(x) = w1·Age + w2 ·Fare + w3 ·Sex + w0 → -∞ ~ ∞
- 목표: Survived를 0, 1로 예측하는 것
- Node 의 결과를 변환해주는 함수 필요
- 그것을 활성 함수(Activation Function)라고 한다.
1.2. 딥러닝 구조 - 활성 함수(Activation Function)
- 활성함수의 기능: node의 결과를 변환시켜주는 역할
Layer | Activation Function | 기능 | |
Hidden Layer | ReLU | 좀 더 깊이 있는 학습(Deep Learning)을 시킨다. (Hidden Layer를 여러 층 쌓는다.) (선형 모델을 비선형 모델로 변환) |
|
Output Layer | 회귀 | X | X |
이진분류 | sigmoid | 결과를 0, 1로 변환 | |
다중분류 | softmax | 각 범주에 대한 결과를 범주별 확률 값으로 변환 |
1.3. 딥러닝 구조 - Loss Function: binary_crossentropy
1.4. 분류 모델 평가: 예측값 후속 처리
- 회귀 모델과 다른 점
- 분류 모델 출력 층의 활성화 함수(sigmoid)
- 예측 결과: 0 ~ 1 사이의 확률 값
- 예측 결과에 대한 후속 처리
- 결과를 0.5 기준으로 잘라서 0, 1로 변환
- np.where(조건문, 참일 때 값, 거짓일 때 값)
1.5. 요약: 분류 모델링 - 이진분류
구분 | Hidden Layer | Output Layer | Compile | ||
Activation | Activation | Node 수 | optimizer | loss | |
Regression | relu | X | 1 | adam | mse |
2-Class | relu | sigmoid | 1 | adam | binary_crossentropy |
2. 딥러닝 모델링: ③ 다중분류
2.1. 딥러닝 구조 - Output Layer
- Node 수
- 다중분류 모델에서 출력층의 노드 수는 y의 범주 수와 같다.
- Softmax
- 각 Class 별(출력 노드)로 예측한 값을, 하나의 확률 값으로 변환
- 다중 분류 오차 계산: Cross Entropy
- 실제 값이 1인 Class와 예측 확률 비교
2.2. 다중 분류 모델링을 위한 전처리
- 다중분류: Y가 범주이고, 범주가 3개 이상
2.3. 다중 분류 모델의 평가
- 이진 분류와 다른 점
- 다중 분류 모델 출력층
- 노드 수: 다중 분류 클래스의 수와 동일
- 활성화 함수: softmax
- 예측결과에 대한 후속 처리
- 예측결과: 각 클래스별 확률값
- 그 중 가장 큰 값의 인덱스로 변환
- np.argmax()
2.4. 요약: 분류 모델링 - 다중분류
구분 | Hidden Layer | Output Layer | Compile | ||
Activation | Activation | Node 수 | optimizer | loss | |
Regression | relu | X | 1 | adam | mse |
2-Class | relu | sigmoid | 1 | adam | binary_crossentropy |
Multi-Class | reul | softmax | Class 수 | adam | sparse_categorical_crossentropy categorical_crossentropy |
'에이블스쿨 6기 DX 트랙 > 일일 복습' 카테고리의 다른 글
IT 인프라 - DAY. 01 (0) | 2024.11.25 |
---|---|
딥러닝 심화: Object Detection (0) | 2024.11.08 |
딥러닝 4일차 (0) | 2024.11.04 |
딥러닝 1일차 (0) | 2024.10.30 |
머신러닝 - 비지도 학습 1일차 (0) | 2024.10.21 |