[딥러닝] 신경망 도식화, 가중치, 활성함수, 경사하강법, 역전파 알고리즘
1. 뉴럴 네트워크 도식화 2. 활성화 함수 (Optimization Algorithm)- Activation Function, 신경망에서 입력값을 처리해 출력값을 변환하는 수학적 함수- 모델이 복잡한 문제를 해결할 수 있도록 데이터를 비선형적으로 변환한다(예: 직선이 아닌 곡선 모양으로 예측가능)- 활성화 함수가 없으면 layer가 있는 의미가 없기 때문에 중요하다활성화함수SigmoidSoftmaxTanhReLULeaky ReLU공식출력범위0 ~ 10 ~ 1-1 ~ 10 ~ 무한대- 무한대~ 무한대용도출력층(이진분류)출력층(다중분류)은닉층(양수/음수)은닉층(양수)ReLU 대안(양/음)*α:작은양수(0.01) 3. 최적화 알고리즘- 손실함수를 최소화 하기 위해 손실 함수의 기울기를 계산하고 가중치와 편..
AI/딥러닝
2024. 11. 28. 22:49
공지사항
최근에 올라온 글
최근에 달린 댓글
- Total
- Today
- Yesterday
링크
TAG
- 다이어트
- 아침
- 뉴스
- IH
- 기초
- 실기
- 영어회화
- 갓생
- 미라클모닝
- 아침운동
- 운동
- opic
- llm
- Ai
- 스크랩
- 오블완
- 빅데이터 분석기사
- 고득점 Kit
- SQL
- Python
- C언어
- ChatGPT
- 줄넘기
- 오픽
- 30분
- 경제
- 습관
- 프로그래머스
- 티스토리챌린지
- 루틴
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
글 보관함