일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | |
7 | 8 | 9 | 10 | 11 | 12 | 13 |
14 | 15 | 16 | 17 | 18 | 19 | 20 |
21 | 22 | 23 | 24 | 25 | 26 | 27 |
28 | 29 | 30 | 31 |
- 신경망
- 딥러닝 교차 엔트로피
- 엔트로피
- 파이썬 딥러닝
- 컴퓨터구조
- 오퍼랜드
- 노드
- 순차 자료구조
- 파라미터
- 회귀분석
- 교차 엔트로피
- 확률분포
- 선형 리스트
- DB
- 단층 퍼셉트론
- 딥러닝
- DBMS
- 자료구조
- 리스트
- 자연어처리
- 연결 자료구조
- 퍼셉트론
- 파이썬 날코딩으로 알고 짜는 딥러닝
- 뇌를 자극하는 알고리즘
- 단층퍼셉트론
- 자료구조 알고리즘
- 인공지능
- lost function
- 딥러닝 교차엔트로피
- 편미분
- Today
- Total
목록파라미터 (3)
YZ ZONE
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/wSqhA/btspcvwbGSs/BGdz6bJkHx4CgFiKDzQdO1/img.png)
전복의 성별 데이터셋 정보: I(infant, 유충),M(male, 수컷),F(female, 암컷) 문자 아스키코드, 선형코드(0,1,2)등의 표현 데이터 내용에 없는 선형적 특성이 나타남 신경망은 불필요한 선형성 분석에 노력 낭비 원-핫 벡터 표현 유충, 수컷, 암컷을 각각(1,0,0),(0,1,0),(0,0,1)로 표현 벡터 크기 늘어나지만 불필요한 선형성 없어 학습에 유리 (모델)파라미터 VS 하이퍼 파라미터 (모델) 파라미터는 학습을 하는동안 계속 바뀌는 변수 값이자 예측 값 즉 weight이고 하이퍼 파라미터는 학습도중에 바꿀 수 없는 학습 전에 설정해야하는 모델 구조나 학습 과정에 영향을 미치는 각종 상숫값입니다.
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/CYYuh/btsplbWYyVh/UQpr8Rm2RjSAltcGi3H1SK/img.png)
하이퍼파라미터 모델 구조나 학습 과정에 영향을 미치는 각종 상숫값 (학습률, 학습횟수, 미니배치 크기…) 딥러닝 알고리즘 실행 동안은 값이 변하지 않는 상수 개발자가 미리 지정해주어야 하는 값 하이퍼파라미터의 중요성 마음에 드는 학습 결과를 얻기까지 다양한 값으로 바꾸어가며 실험할 필요 파라미터는 학습으로 적당한 값을 얻을 수 있지만 하이퍼파라미터는 개발자가 미리 정해주어야 한다. 그래서 더 많은 경험과 이해가 필요하다.
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/bpX4nS/btsoZLSMhqM/ilRgHltalgyWFIesxwKsx0/img.png)
1.1 단층 퍼셉트론 신경망 구조 단층퍼셉트론 가장 기본적인 신경망 구조 일련의 퍼셉트론을 한 줄로 배치 입력 벡터 하나로부터 출력 벡터 하나를 단번에 생성 입출력 패턴 입력벡터: x = (x1,x2,x3,x4) 출력벡터: y = (y1,y2,y3) 문제의 내용에 따라 크기가 결정됨 퍼셉트론 열 P1,P2,P3 출력 벡터 크기만큼의 퍼셉트론 배치 가중치 weight 입력 벡터와 퍼셉트론 사이의 완전 연결 [입력벡터크기, 퍼셉트론개수] 형태의 행렬 입력 값에 가중치의 값을 곱한 값들의 합이 출력 노드의 값으로 출력됨. weight를 수정해 나가는 과정이 학습 과정. 어떤 입력 값을 주었을 때 웨이트 값에 따라서 출력이 결정되는 구조. 편향 bias 퍼셉트론 별로 가산되는 스칼라 값 [퍼셉트론 개수] 형태의..