일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
- 딥러닝 교차엔트로피
- 파이썬 딥러닝
- 연결 자료구조
- 단층 퍼셉트론
- 자료구조
- 컴퓨터구조
- 확률분포
- 교차 엔트로피
- 딥러닝
- 선형 리스트
- 자연어처리
- 자료구조 알고리즘
- 순차 자료구조
- 단층퍼셉트론
- 회귀분석
- DBMS
- 노드
- 파라미터
- 엔트로피
- 편미분
- 파이썬 날코딩으로 알고 짜는 딥러닝
- 딥러닝 교차 엔트로피
- 인공지능
- 리스트
- DB
- lost function
- 뇌를 자극하는 알고리즘
- 퍼셉트론
- 오퍼랜드
- 신경망
- Today
- Total
목록회귀분석 (5)
YZ ZONE
3.2 선택 분류 문제의 신경망 처리 선택 분류 문제 - 몇 가지 후보 가운데 하나를 골라 답하는 문제 불량 유형을 가려내야 한다면 선택 분류 문제 철판의 불량 여부 판정: 이진 판단 문제 0 or 1 - 객관식 시험 문제 - 각종 의사 결정 - 언어행위: 알파벳 혹은 음소의 선택 및 나열 각각의 알파벳이나 음소 선택의 선택 분류 문제 선택 분류를 위한 신경망 구성 - 후보 항목 수만큼의 퍼셉트론 배치 각 후보 항목과 일대일 대응 관계 - 퍼셉트론 출력: 로짓 추정값 로짓값: 로그 척도의 상대적 추천 강도 후보 항목 번호를 직접 추정하거나 각 후보 항목의 확률값을 곧바로 계산하기는 출력 범위 제한도 어렵고 미분 처리가 어려워 학습 방법도 마땅치 않음 - 전체적으로 이진 판단과 유사하지만 모든 후보 항목에..
하이퍼파라미터 모델 구조나 학습 과정에 영향을 미치는 각종 상숫값 (학습률, 학습횟수, 미니배치 크기…) 딥러닝 알고리즘 실행 동안은 값이 변하지 않는 상수 개발자가 미리 지정해주어야 하는 값 하이퍼파라미터의 중요성 마음에 드는 학습 결과를 얻기까지 다양한 값으로 바꾸어가며 실험할 필요 파라미터는 학습으로 적당한 값을 얻을 수 있지만 하이퍼파라미터는 개발자가 미리 정해주어야 한다. 그래서 더 많은 경험과 이해가 필요하다.
손실 함수 lost function 추정을 해서 나온 값과 정답의 차값을 알려줄 때 쓰는 계산식 항상 0 이상, 미분 가능하고(그래야 기울기를 구할 수 있음) 추정이 정확해질수록 작아지는 값 손실함수 값을 줄이는 것을 학습 목표로 삼게 됨 파라미터(w) 상태에 따라 값이 달라 함수라고 표현 비용함수. cost function라고도 부른다 회귀분석에서는 신경망 출력과 정답의 MSE가 이런 성질 보유 MSE:평균제곱오차 Mean Squared Error 신경망 출력, 즉 추정이 (t1, t2..tn)이고 데이터셋의 정답 정보가(y1,y2…yn)일 때 MSE = 오차의 제곱의 평균 추정이 정확해질수록 0에 수렴하며 정답과 일치할 때 0 (오차가 적을수록 정확한 추정) 계산이 간단하고 미분도 쉽다. → MSE를..
데이터를 한 번에 여러개를 넣고 계산하겠다. → 행렬로 구성 텐서를 통해 연산을 하다 보면 행렬 같은 것들을 병렬로 한 번에 처리할 수 있는 효율적인 구조가 된다. 그래서 입력을 여러개를 한 번에 넣어서 처리를 할 수 있다. 미니배치로 처리 속도 향상을 위해 여러 데이터를 한 번에 처리함. 텐서 다차원 숫자 배열 정도로 이해해도 무방 스칼라(값이 하나),벡터, 행렬: 각각 0차원, 1차원, 2차원 텐서..n차원 텐서 텐서 연산 파이썬의 numpy라이브러리 등이 효율적 지원 반복문 사용보다 파이썬 인터프리터의 텐서 연산이 훨씬 빠름 병렬 수치 연산 자원용 GPU사용시 속도 차이 더욱 커짐 미니배치 여러 데이터를 한꺼번에 처리 반복처리대신 텐서 연산 활용할 수 있어 처리 속도 향상 학습에서 특정 데이터 영향..
1.1 단층 퍼셉트론 신경망 구조 단층퍼셉트론 가장 기본적인 신경망 구조 일련의 퍼셉트론을 한 줄로 배치 입력 벡터 하나로부터 출력 벡터 하나를 단번에 생성 입출력 패턴 입력벡터: x = (x1,x2,x3,x4) 출력벡터: y = (y1,y2,y3) 문제의 내용에 따라 크기가 결정됨 퍼셉트론 열 P1,P2,P3 출력 벡터 크기만큼의 퍼셉트론 배치 가중치 weight 입력 벡터와 퍼셉트론 사이의 완전 연결 [입력벡터크기, 퍼셉트론개수] 형태의 행렬 입력 값에 가중치의 값을 곱한 값들의 합이 출력 노드의 값으로 출력됨. weight를 수정해 나가는 과정이 학습 과정. 어떤 입력 값을 주었을 때 웨이트 값에 따라서 출력이 결정되는 구조. 편향 bias 퍼셉트론 별로 가산되는 스칼라 값 [퍼셉트론 개수] 형태의..