목록분류 전체보기 (158)
Jeunwork space
- 어떤 테이블 R에서 X와 Y를 각각 R의 속성 집합의 부분집합이라 하자. - 속성 X의 값 각각에 대해 시간에 관계없이 항상 속성 Y의 값이 오직 하나만 연관되어 있을 때 Y는 X에 함수적 종속 또는 X가 Y를 함수적으로 결정한다고 하고, X → Y로 표기. X는 결정자 Y는 종속자 - 데이터의 의미를 표현. 현실 세계를 표현하는 제약 조건이 되는 동시에 데이터베이스에서 항상 유지되어야할 조건 ex) 기본키인 학번으로 이름, 학년, 학과를 모두 찾을 수 있을때, 기본키를 결정자, 나머지 필드들을 종속자라고 한다. 학번 → 이름, 학년, 학과 학번, 과목번호가 기본키인 테이블에서, 학번, 과목번호 → 성적 성적은 학번, 과목번호에 완전 함수적 종속 학번 → 학년 학년은 학번, 과목번호에 부분 함수적 종속
다중 퍼셉트론에서 오차 수정 - 결과값의 오차를 구해 이를 토대로 하나 앞선 가중치를 차례로 거슬러 올라가며 조정한다. → 계산 방향이 출력층에서 시작하는데 이를 오차 역전파(back propagation)이라고 한다. - 오차 역전파 과정 1. 임의의 초기 가중치를 준뒤 결과를 계산한다. 2. 계산 결과와 우리가 원하는 값 사이의 오차를 구한다. 3. 경사 하강법을 이용해 바로 앞 가중치를 미분값이 0에 가까워지는 방향으로 업데이트한다. 4. 위 과정을 더이상 오차가 줄어들지 않을 때까지 반복한다. - 공식 - 신경망의 구현과정 1. 환경 변수 지정: 환경 변수에는 입력 값과 타깃 결괏값이 포함된 데이터 셋, 학습률 등이 포함된다. 또한, 활성화 함수와 가중치 등도 선언되어야 함 2. 신경망 실행: 초..
퍼셉트론 - 신경망을 이루는 가장 중요한 기본 단위 - 입력 값과 활성화 함수를 사용해 출력 값을 다음으로 넘기는 가장 작은 신경망 단위 - 로지스틱 회귀가 퍼셉트론의 개념 y = wx + b (w는 가중치, b는 바이어스) - 가중합(weight sum) 입력값 x와 가중치w의 곱을 모두 더한 다음 거기에 바이어스 b를 더한 값 가중합의 결과를 놓고 1 또는 0을 출력해서 이를 판단하는 활성화 함수(activation function)로 보낸다. 대표적인 활성화 함수 = 시그모이드 함수 - 퍼셉트론의 한계 XOR 문제(둘 중하나만 1일 때 1이 출력) 해결하지 못한다. 이를 해결하기 위한 방법 ↓ 다중 퍼셉트론 - 숨어있는 층, 즉 은닉층을 만들어 공간을 왜곡하면 두 영역을 가로지르는 직선을 그을 수 ..