목록Deep Learning (16)
Jeunwork space
로지스틱 회귀 - 직선이 아닌, 참(1)과 거짓(0) 사이를 구분하는 S자 형태의 선을 그어주는 작업 → 시그모이드 함수 이용 - 시그모이드 함수 공식 - 특징 y값이 0 과 1사이 - 실제 값이 1일 때 예측 값이 0 에 가까워지면 오차가 커지고, 반대로 실제 값이 0일 때 예측 값이 1에 가까워지면 오차가 커진다. 이를 공식으로 만들면 → 로그 함수 - 규칙 a는 그래프의 경사도를 결정한다. → a의 값이 커지면 경사가 커지고, a값이 작아지면 경사가 작아진다. b는 그래프의 좌우 이동을 의미한다. a값이 작아지면 오차는 무한대로 커지나, a값이 커진다고 해서 오차가 무한대로 커지지는 않는다.
다중 선형 회귀 - 두 개 이상의 독립변수 x들과 종속변수 y로 예측값 구하는 법 - 독립변수가 두개 일때, y = a1x1 + a2x2 + b
경사 하강법(gradient desecnt) - 반복적으로 기울기 a를 변화시켜 기울기가 0이 되는 최소값 m을 찾는다. - 편미분 학습률 적절한 이동거리를 정해주는 것 에포크(epoch) 입력 값에 대해 몇 번이나 반복하여 실험 했는지 나타낸다. 우리가 설정한 실험을 반복하고 100번마다 결과는 내놓는다.
'x값이 변함에 따라 y값도 변한다.'는 정의 안에서, - 독립적으로 변할 수 있는 값 x = 독립 변수 - 이 독립 변수에 따라 종속적으로 변하는 값 y = 종속 변수 선형 회귀 - 독립 변수 x를 사용해 종속 변수 y의 움직임을 예측하고 설명하는 작업 - 단순 선형 회귀 : 하나의 x값만으로도 y값을 설명할 수 있을 때 - 다중 선형 회귀 : x값이 여러 개 필요할 때 y = ax + b일때, 선형회귀는 최적의 a값과 b값을 찾아내는 작업 최소 제곱법 주어진 값 x가 하나일 때, 기울기 a와 절편 b rngksms qkdqjq a = (x-x 평균)(y-y 평균)의 합 / (x-x평균)^2의 합 b = y의 평균 - (x의 평균 * 기울기 a) 최소 제곱법 활용 평균 제곱 오차 - 여러 개의 입력값을..