에이블스쿨 6기 DX 트랙/일일 복습

딥러닝 2일차

d061120 2024. 11. 6. 19:24

1. 딥러닝 모델링: ② 이진분류

※ 함수(Fuction)

  • 입력값(input)을 넣으면, 출력값(output)을 준다.
  • 입력값을 x, 출력값을 y로 표현
  • 따라서 x를 t로 변환(transformation)시켜준다고 할 수 있다.

※ 예시

  • f(x) = x^2
  • x = [1, 2, 3, 4, ...] → y = [1, 4, 9, 16, ...]

 

1.1. 딥러닝 구조 - 이진분류

- Survived 를 예측하기 위한 함수

  • f(x) = w1·Age + w2 ·Fare + w3 ·Sex + w0 → -∞ ~ ∞

- 목표: Survived를 0, 1로 예측하는 것

- Node 의 결과를 변환해주는 함수 필요

  • 그것을 활성 함수(Activation Function)라고 한다.

 

1.2. 딥러닝 구조 - 활성 함수(Activation Function)

- 활성함수의 기능: node의 결과를 변환시켜주는 역할

Layer Activation Function 기능
Hidden Layer ReLU 좀 더 깊이 있는 학습(Deep Learning)을 시킨다.
(Hidden Layer를 여러 층 쌓는다.)
(선형 모델을 비선형 모델로 변환)
Output Layer 회귀 X X
이진분류 sigmoid 결과를 0, 1로 변환
다중분류 softmax 각 범주에 대한 결과를 범주별 확률 값으로 변환

 

1.3. 딥러닝 구조 - Loss Function: binary_crossentropy

1.4. 분류 모델 평가: 예측값 후속 처리

- 회귀 모델과 다른 점

  • 분류 모델 출력 층의 활성화 함수(sigmoid)
  • 예측 결과: 0 ~ 1 사이의 확률 값

- 예측 결과에 대한 후속 처리

  • 결과를 0.5 기준으로 잘라서 0, 1로 변환
  • np.where(조건문, 참일 때 값, 거짓일 때 값)

1.5. 요약: 분류 모델링 - 이진분류

구분 Hidden Layer Output Layer Compile
Activation Activation Node 수 optimizer loss
Regression relu X 1 adam mse
2-Class relu sigmoid 1 adam binary_crossentropy

 

 

2. 딥러닝 모델링: ③ 다중분류

2.1. 딥러닝 구조 - Output Layer

- Node 수

  • 다중분류 모델에서 출력층의 노드 수y의 범주 수와 같다.
  •  

- Softmax

  • 각 Class 별(출력 노드)로 예측한 값을, 하나의 확률 값으로 변환

 

- 다중 분류 오차 계산: Cross Entropy

  • 실제 값이 1인 Class와 예측 확률 비교

2.2. 다중 분류 모델링을 위한 전처리

- 다중분류: Y가 범주이고, 범주가 3개 이상

2.3. 다중 분류 모델의 평가

- 이진 분류와 다른 점

  • 다중 분류 모델 출력층
    • 노드 수: 다중 분류 클래스의 수와 동일
    • 활성화 함수: softmax

- 예측결과에 대한 후속 처리

  • 예측결과: 각 클래스별 확률값
  • 그 중 가장 큰 값의 인덱스로 변환
    • np.argmax()

2.4. 요약: 분류 모델링 - 다중분류

구분 Hidden Layer Output Layer Compile
Activation Activation Node 수 optimizer loss
Regression relu X 1 adam mse
2-Class relu sigmoid 1 adam binary_crossentropy
Multi-Class reul softmax Class 수 adam sparse_categorical_crossentropy
categorical_crossentropy

'에이블스쿨 6기 DX 트랙 > 일일 복습' 카테고리의 다른 글

IT 인프라 - DAY. 01  (0) 2024.11.25
딥러닝 심화: Object Detection  (0) 2024.11.08
딥러닝 4일차  (0) 2024.11.04
딥러닝 1일차  (0) 2024.10.30
머신러닝 - 비지도 학습 1일차  (0) 2024.10.21