artificial intelligence

0703 HW _ class summary (2)

보민06 2021. 7. 5. 22:48

로지스틱 회귀 (Logistic Regression)

: 참과 거짓이 같이 분류하는데 사용되는 알고리즘

  • 선형 회귀의 직선 --> 1 또는 0 사이의 값을 구분하는 것이 어려움
    => s자 형태의 곡선 그래프 필요
    => 이 때 s자 형태의 그래프의 이름이 logistic에서 착안하여 붙인 분류 알고리즘
  • 로지스틱 회귀에서의 딥러닝 --> 정확하게 분류하는 곡선 그리기 위해 사용
    학습된 분류선 --> 입력값에 따라 0 또는 1로 잘 분류하는 것이 목표
  • 선형 회귀 --> 데이터가 연속형일 때
    로지스틱 회귀 --> 범주형(0 또는 1의 형태)일 때 사용

 

시그모이드 함수 (Sigmoid function)

: 시그모이드 함수(로지스틱 함수)는 s자 형태로 0~1 까지의 확률을 모두 표현 가능

  • 이 때 시그모이드 함수는 y = 1/(1 + e^(-z)) 꼴로 z는 선형 방적식인 ax + b가 들어감 (즉, z = ax + b)
  • 선형 방정식의 a(기울기) --> 시그모이드 그래프의 경사도 의미, b(y절편) --> 그래프의 좌우 이동 의미
    => a, b 값에 따라 예측값의 정확도 달라짐

 

오차 공식 (Loss function, Cost function)

: 실제값과 예측값의 차이 = 오차(error)
: 오차들을 계산하는 함수 = 비용 함수 (cost funtion) 혹은 손실 함수 (loss function)

  • 선형 회귀의 비용 함수 --> MSE(평균 제곱 오차) 사용
  • 로지스틱 회귀의 비용 함수 --> 시그모이드 함수의 특징을 활용하여 로지스틱 손실 함수 (크로스 엔트로피) 사용
    -  실제값이 1 --> 예측값이 0에 가까워지면 오차가 커짐, 1에 가까워지면 오차가 작아짐
    -  실제값이 0 --> 예측값이 0에 가까워지면 오차가 작아짐, 1에 가까워짐녀 오차가 커짐

로지스틱 손실 함수

: 아래의 두 가지 경우를 한번에 나타낼 수 있는 식 필요

-  실제값이 1 --> 예측값이 0에 가까워지면 오차가 커짐, 1에 가까워지면 오차가 작아짐
-  실제값이 0 --> 예측값이 0에 가까워지면 오차가 작아짐, 1에 가까워짐녀 오차가 커짐

 

=> 로그 함수를 사용하여 한번에 나타낼 수 있음

     L = - (y log (a) + (1 - y) log (1 - a)) 

* y는 실제값, a는 예측값

 

 

내 진로와 딥러닝

: 환자들의 데이터들을 모아 분석한 것을 바탕으로 약의 효능이나 병의 진행 속도를 예측할 수 있을 것 같다