Jeunwork space

모두의 딥러닝 5장 - 로지스틱 회귀 본문

Deep Learning

모두의 딥러닝 5장 - 로지스틱 회귀

jeunwork 2021. 6. 7. 11:54

로지스틱 회귀

- 직선이 아닌, 참(1)과 거짓(0) 사이를 구분하는 S자 형태의 선을 그어주는 작업 → 시그모이드 함수 이용

- 시그모이드 함수 공식

이미지 출처: 위키 백과 시그모이드 함수

- 특징 

y값이 0 과 1사이 

- 실제 값이 1일 때 예측 값이 0 에 가까워지면 오차가 커지고, 반대로 실제 값이 0일 때 예측 값이 1에 가까워지면 오차가 커진다. 이를 공식으로 만들면 → 로그 함수

- 규칙

a는 그래프의 경사도를 결정한다. → a의 값이 커지면 경사가 커지고, a값이 작아지면 경사가 작아진다. 

b는 그래프의 좌우 이동을 의미한다.

a값이 작아지면 오차는 무한대로 커지나, a값이 커진다고 해서 오차가 무한대로 커지지는 않는다.  

 

Comments