티스토리 뷰
1. CNN
- convolutional Neural Network
- 합성곱: 이미지, 영상 등 공간 정보를 갖는 데이터에 특화된 딥러닝 구조
- 이미지나 시계열 데이터 등에서 특정 패턴을 찾아내기 위한 연산
- 합성곱 연산을 통해 특징 추출 → 풀링(Pooling) → 분류(Fully Connected Layer)
- 활용: 이미지분류, 객체 탐지, 얼굴 인식, 의료 영상 분석 등
- 평가방법: Accuracy, Precision, Recall, F1-score, Confusion Matrix, Top-k Accuracy
2. RNN
- 시퀀스 데이터(시간 흐름, 순서)를 처리하는 신경망
- 앞 시점의 출력을 다음 시점으로 전달 → 기억 가능
- 긴 시퀀스 데이터를 다룰 때 기억이 금방 사라지는 한계, 기울기소실 문제로 학습이 제대로 안됨
- LSTM, GRU는 RNN의 개선형(장기 의존성 문제 해결)
- 활요: 시계열 예측, 자연어 처리(NLP), 음성 인식 등
- 평가방법: MSE, MAE(시계열 수치 예측시-연속형), 분류문제는 Accuracy, F1(감정 분석 등), BLEU, ROUGE(번역/요약 등 자연어 생성, 정답 문장과 비교), Perplexity(언어 모델 성능- 낮을수록 좋음)
3. LSTM
- 시계열 데이터나 문장처럼 순서가 중요한 데이터를 처리할 때 널리 쓰이는 모델
- RNN의 한계를 해결한 개선형 구조(기억을 조절할 수 있는 똑똑한 RNN)
- 시간 흐름 속에서 중요한 정보는 기억하고, 필요 없어진 정보는 잊어버릴 수 있는 구조를 가진 RNN의 업그레이드 버전
- Forget Gate(잊을 것 결정), Input Gate(기억할 것 결정), Output Gate(출력할 것 결정)
- 활용: 자연어 처리(문장 생성, 감정 분석, 번역), 시계열 예측(주가 예측, 날씨 예측), 음성 인식(STT), 바이오(유전자 서열 분석 등)
4. Transformer
- 문장을 한꺼번에 입력 받아, 전체 맥락을 고려해 처리하는 Self-Attention 메커니즘 기반의 딥러닝 구조
1) 핵심 구성 요소
- Self-Attention(각 단어가문장 내 다른 단어와 얼마나 관련이 있는지 계산)
- Multi-Head Attention(다양한 관점에서 Attention 수행(병렬처리) : RNN은 순서대로 처리해야해서 느림
- Position Encoding(단어 순서 정보 보강, RNN 없이도 순서 감지 가능)
- Encoder/Decoder 구조(입력 인코딩 → 출력 생성(기계 번역, 문장 생성 등))
2) 문장 분류 평가기준
- 문장 분류(감정 분석, 뉴스 분류, 스팸 메일 분류 등) : 문장을 보고 하나의 레이블을 맞추는 문제
- Accuray: 전체 중 맞게 분류된 비율
- Precision: 예측한 것 중 실제로 맞은 비율
- Racall: 실제 정답 중 마준 비율
- F1-Score: Precision과 Recall의 조화 평균
- AUC-ROC: 분류 경계점 변화에 따른 성능 시각화(확률 기반 예측)
3) 번역/요약 평가 기준
- Transformer의 Encoder-Decoder 구조나 LLM이 자주 쓰이는 작업
- BLEU: 기계 번역, 예측된 문장과 정답 문장의 n-gram 겹침 비율, 번역 정확도 측정, 숫자로 쉽게 비교 가능
- ROUGE: 요약, 정답 요약과의 공통 부분 회수율(Recall 기준), 요약 평가에 자주 사용
- METEOR: 번역+의미 유사성, BLUE보다 더 세미하게: 동의어, 어순 등 반영, 언어간 비교에서 성능 우수
4) 문장 생성 평가 기준
- 질문에 대한 답변 생성, 스토리만들기, 챗봇 대화 등 정답이 하나가 아닌 경우, 정량 평가가 어려워짐
- Perplexity: 언어 모델이 다음 단어를 얼마나 당황하지 않고 예측하는가(log-likelihood 기반)
- Human Evaluation: 사람이 직접 읽고 평가(정확성, 자연스러움 등), 최종적으로 가장 신뢰할 수 있는 방식
- Diversity(n-gram distinct): 문장이 얼마나 다양하게 생성되었는지 (중복된 문장이 많은 경우 낮아짐)
5) 임베딩 활용 모델
- 유사 문장 검색, 질문-문서 매칭, 검색 기반 RAG 시슽ㅁ 등
- Transformer는 단어/문장을 벡터로 바꾼 뒤 유사도 기반 검색/추천에 사용됨
- Cosine Similarity: 임베딩 벡터 간 각도 비교(1에 가까울 수록 유사), 문장/문서 간 유사도 계산
- Recall@k: 정답이 Top-k안에 포함됐는지 여부, 유사 문서 검색 정확도
- MRR(Mean Reciprocal Rank): 정답이 몇 번째에 나왔는지 평균 순위 평가, 질문-문서 매칭 등 순위형 태스크
5. GAN
- 생성자와 판별자가 서로 경쟁하는 구조
- 생성자는 진짜 같은 가짜를 만들고, 판별자는 진짜/가짜 구분
- 학습이 잘 되면 생성자가 매우 그럴듯한 데이터를 만들어냄
- 활용: 이미지 생성, 얼굴 합성, 스타일 변환, 데이터 증강 등
- 평가방법: FID(가짜 vs 진짜 이미지의 분포 차이 측정- 낮을수록 좋음), IS(생성 이미지의 다양성과 품질 평가-높을수록 좋음)
'AI > 데이터분석' 카테고리의 다른 글
[데이터분석] PSI, gain chart, shap (0) | 2025.04.22 |
---|---|
[데이터분석] 배깅과 부스팅 (0) | 2025.04.21 |
[데이터분석] 데이터 시각화 (Tableau 무료 설치) (2) | 2025.01.25 |
[데이터분석] MCFF와 Librosa (0) | 2024.12.18 |
[데이터분석] 데이터 분포 변화 측정(PSI), 데이터 드리프트 (2) | 2024.12.16 |
- Total
- Today
- Yesterday
- SQL
- IH
- opic
- 운동
- 미라클모닝
- llm
- 줄넘기
- 고득점 Kit
- 영어회화
- 티스토리챌린지
- 아침
- ChatGPT
- 습관
- Ai
- 30분
- 아침운동
- 오픽
- 뉴스
- 경제
- Python
- 다이어트
- 갓생
- 프로그래머스
- 오블완
- 스크랩
- C언어
- 루틴
- 기초
- 실기
- 빅데이터 분석기사
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | ||||
4 | 5 | 6 | 7 | 8 | 9 | 10 |
11 | 12 | 13 | 14 | 15 | 16 | 17 |
18 | 19 | 20 | 21 | 22 | 23 | 24 |
25 | 26 | 27 | 28 | 29 | 30 | 31 |