일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
- 편미분
- 파이썬 날코딩으로 알고 짜는 딥러닝
- 리스트
- 파라미터
- 퍼셉트론
- 인공지능
- 단층 퍼셉트론
- 뇌를 자극하는 알고리즘
- 연결 자료구조
- 자연어처리
- DBMS
- 딥러닝
- 신경망
- 딥러닝 교차엔트로피
- 확률분포
- 자료구조 알고리즘
- 교차 엔트로피
- 자료구조
- 파이썬 딥러닝
- 오퍼랜드
- 선형 리스트
- 엔트로피
- 노드
- 딥러닝 교차 엔트로피
- lost function
- 회귀분석
- 단층퍼셉트론
- 컴퓨터구조
- 순차 자료구조
- DB
- Today
- Total
목록파이썬 날코딩으로 알고 짜는 딥러닝 (15)
YZ ZONE
앞에서 회귀 분석을 할때는 추정한 값과의 차이(실수 차)를 구하면 됬었다. 이진판단시 결국 출력이 확률로 나오기 때문에 확률 분포의 차이를 알고싶은것이다. → 교차 엔트로피로 정량화 해 하나의 숫자로 표현하겠다. 학습: 신경망에 데이터를 주어서 정답을 맞출때 까지 weight를 조정하는 과정 두 가지 확률 분포의 유사도 정량화 교차 엔트로피로 두 확률 분포의 유사도를 하나의 숫자로 나타내겠다. 교차 엔트로피는 딥러닝을 확용한 분류를 할때 손실함수로서 많이 사용됨. 교차 엔트로피 계산에서의 확률 분포 배치 교차엔트로피를 이용한 한일전 승률 추정 비교 이진 판단 경우에 적절한 예는 아님
전복의 성별 데이터셋 정보: I(infant, 유충),M(male, 수컷),F(female, 암컷) 문자 아스키코드, 선형코드(0,1,2)등의 표현 데이터 내용에 없는 선형적 특성이 나타남 신경망은 불필요한 선형성 분석에 노력 낭비 원-핫 벡터 표현 유충, 수컷, 암컷을 각각(1,0,0),(0,1,0),(0,0,1)로 표현 벡터 크기 늘어나지만 불필요한 선형성 없어 학습에 유리 (모델)파라미터 VS 하이퍼 파라미터 (모델) 파라미터는 학습을 하는동안 계속 바뀌는 변수 값이자 예측 값 즉 weight이고 하이퍼 파라미터는 학습도중에 바꿀 수 없는 학습 전에 설정해야하는 모델 구조나 학습 과정에 영향을 미치는 각종 상숫값입니다.
하이퍼파라미터 모델 구조나 학습 과정에 영향을 미치는 각종 상숫값 (학습률, 학습횟수, 미니배치 크기…) 딥러닝 알고리즘 실행 동안은 값이 변하지 않는 상수 개발자가 미리 지정해주어야 하는 값 하이퍼파라미터의 중요성 마음에 드는 학습 결과를 얻기까지 다양한 값으로 바꾸어가며 실험할 필요 파라미터는 학습으로 적당한 값을 얻을 수 있지만 하이퍼파라미터는 개발자가 미리 정해주어야 한다. 그래서 더 많은 경험과 이해가 필요하다.
순전파 처리의 역순으로 진행되는 역전파 처리 lost값을 계산하는 과정이 순전파. lost의 기울기를 계산해서 수정해야하는 양을 측정하는 과정이 역전파. 손실기울기와 부분기울기 입력이 다수인 경우의 처리 즉, 각 입력 성분 별로 따로 처리하면 된다 파라미터에 해당하는 입력 성분의 경우 학습률을 이용해 값 수정 중복 활용되는 출력의 처리 즉, 출력의 손실기울기들을 합산한 후 처리하면 된다
정답과 추정한 값의 차이를 줄여나가는 것이 학습의 과정인데 이것을 경사하강법으로 찾아나감. 경사하강법 gradient descent algorithm w(weight)값을 조정해나가는 일종의 전략 딥러닝의 가장 기본적인 학습 알고리즘 함수의 기울기 계산해 함숫값이 작아지는 방향으로 이동 반복 미니배치 입력에 대해 순전파와 역전파를 번갈아 반복 수행 → 입력 넣고 출력이 나왔을때 출력과 정답의 차이를 미분을 통해 기울기로 구해 얼만큼 하강시켜야 하는지 기울기를 계산해 w를 수정해 나감 → 이 과정을 기울기가 작아질때까지 출력과 정답의 차이가 거의 나지 않을 때까지 반복 순전파: 입력 정보로부터 손실 함수 계산 과정 신경망 구조를 따라가면서 현재의 파라미터값 이용해 계산 역전파 정답과 출력한 추정(예측)값의..
손실 함수 lost function 추정을 해서 나온 값과 정답의 차값을 알려줄 때 쓰는 계산식 항상 0 이상, 미분 가능하고(그래야 기울기를 구할 수 있음) 추정이 정확해질수록 작아지는 값 손실함수 값을 줄이는 것을 학습 목표로 삼게 됨 파라미터(w) 상태에 따라 값이 달라 함수라고 표현 비용함수. cost function라고도 부른다 회귀분석에서는 신경망 출력과 정답의 MSE가 이런 성질 보유 MSE:평균제곱오차 Mean Squared Error 신경망 출력, 즉 추정이 (t1, t2..tn)이고 데이터셋의 정답 정보가(y1,y2…yn)일 때 MSE = 오차의 제곱의 평균 추정이 정확해질수록 0에 수렴하며 정답과 일치할 때 0 (오차가 적을수록 정확한 추정) 계산이 간단하고 미분도 쉽다. → MSE를..