Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- 인공지능
- DBMS
- 확률분포
- 컴퓨터구조
- 자료구조 알고리즘
- 연결 자료구조
- 자연어처리
- 회귀분석
- 리스트
- 신경망
- DB
- 엔트로피
- 자료구조
- 파이썬 딥러닝
- 파이썬 날코딩으로 알고 짜는 딥러닝
- 퍼셉트론
- 노드
- 단층 퍼셉트론
- 선형 리스트
- 단층퍼셉트론
- lost function
- 순차 자료구조
- 교차 엔트로피
- 편미분
- 오퍼랜드
- 딥러닝 교차엔트로피
- 딥러닝
- 딥러닝 교차 엔트로피
- 파라미터
- 뇌를 자극하는 알고리즘
Archives
- Today
- Total
YZ ZONE
[딥러닝] 1. 단층 퍼셉트론(SLP) _ 1. 회귀분석_1.1 단층 퍼셉트론 신경망 구조 본문
1.1 단층 퍼셉트론 신경망 구조
단층퍼셉트론
- 가장 기본적인 신경망 구조
- 일련의 퍼셉트론을 한 줄로 배치
- 입력 벡터 하나로부터 출력 벡터 하나를 단번에 생성
입출력 패턴
- 입력벡터: x = (x1,x2,x3,x4)
- 출력벡터: y = (y1,y2,y3)
- 문제의 내용에 따라 크기가 결정됨
퍼셉트론 열
- P1,P2,P3
- 출력 벡터 크기만큼의 퍼셉트론 배치
가중치 weight
- 입력 벡터와 퍼셉트론 사이의 완전 연결
- [입력벡터크기, 퍼셉트론개수] 형태의 행렬
입력 값에 가중치의 값을 곱한 값들의 합이 출력 노드의 값으로 출력됨.
weight를 수정해 나가는 과정이 학습 과정.
어떤 입력 값을 주었을 때 웨이트 값에 따라서 출력이 결정되는 구조.
편향 bias
- 퍼셉트론 별로 가산되는 스칼라 값
- [퍼셉트론 개수] 형태의 벡터
파라미터(모델 파라미터) = 가중치 W
하이퍼 파라미터와는 다른 개념
- 가중치 행렬과 편향 벡터
- 즉 변하는 값, 알아내야되는 값
- 퍼셉트론의 동작 특성을 결정하는 값이면서 학습 과정 중에 끊임없이 변경된다.
- 학습: 문제 풀이에 적합한 파라미터값(가중치)의 조합을 구하는 과정
계층 layer
- 퍼셉트론 열: 딥러닝에서 가장 기본적인 계층 형태
- 출력 계층: 최종적으로 출력을 생산하는 퍼셉트론 열
- 은닉 계층 hidden layer: 출력 계층에 앞서 입력을 미리 처리하는 계층(다층 퍼셉트론 신경망에 등장)
- 단층 퍼셉트론 신경망: 출력 계층만으로 구성되는 가장 간단한 신경망
입력계층: 데이터가 주어지는 것 임으로 독립적인 퍼셉트론 열이 아니다
이 책에서는 입력 계층의 실체를 인정하지 않기로 함.
출력층 하나로 보기 때문에 단층퍼셉트론이라함.
'IT > 딥러닝' 카테고리의 다른 글
[딥러닝] 1. 단층 퍼셉트론(SLP) _ 1. 회귀분석_ 1.7 편미분과 손실기울기 계산 (0) | 2023.07.28 |
---|---|
[딥러닝] 1. 단층 퍼셉트론(SLP) _ 1. 회귀분석_ 1.6 경사하강법과 역전파 (0) | 2023.07.28 |
[딥러닝] 1. 단층 퍼셉트론(SLP) _ 1. 회귀분석_1.5 회귀분석과 MSE 손실함수 (0) | 2023.07.28 |
[딥러닝] 1. 단층 퍼셉트론(SLP) _ 1. 회귀분석_ 1.3 신경망의 세 가지 출력 유형과 회귀 분석 (0) | 2023.07.26 |
[딥러닝] 1. 단층 퍼셉트론(SLP) _ 1. 회귀분석_ 1.2 텐서 연산과 미니배치의 활용 (0) | 2023.07.26 |