티스토리 뷰

1.  CNN

-  convolutional Neural Network

- 합성곱: 이미지, 영상 등 공간 정보를 갖는 데이터에 특화된 딥러닝 구조

- 이미지나 시계열 데이터 등에서 특정 패턴을 찾아내기 위한 연산

- 합성곱 연산을 통해 특징 추출 → 풀링(Pooling) → 분류(Fully Connected Layer)

- 활용: 이미지분류, 객체 탐지, 얼굴 인식, 의료 영상 분석 등

- 평가방법: Accuracy, Precision, Recall, F1-score, Confusion Matrix, Top-k Accuracy

 

2. RNN

- 시퀀스 데이터(시간 흐름, 순서)를 처리하는 신경망

- 앞 시점의 출력을 다음 시점으로 전달 → 기억 가능

- 긴 시퀀스 데이터를 다룰 때 기억이 금방 사라지는 한계,  기울기소실 문제로 학습이 제대로 안됨

- LSTM, GRU는 RNN의 개선형(장기 의존성 문제 해결)

- 활요: 시계열 예측, 자연어 처리(NLP), 음성 인식 등

- 평가방법: MSE, MAE(시계열 수치 예측시-연속형), 분류문제는 Accuracy, F1(감정 분석 등), BLEU, ROUGE(번역/요약 등 자연어 생성, 정답 문장과 비교), Perplexity(언어 모델 성능- 낮을수록 좋음)

 

3. LSTM

- 시계열 데이터나 문장처럼 순서가 중요한 데이터를 처리할 때 널리 쓰이는 모델

- RNN의 한계를 해결한 개선형 구조(기억을 조절할 수 있는 똑똑한 RNN)

- 시간 흐름 속에서 중요한 정보는 기억하고, 필요 없어진 정보는 잊어버릴 수 있는 구조를 가진 RNN의 업그레이드 버전

- Forget Gate(잊을 것 결정), Input Gate(기억할 것 결정), Output Gate(출력할 것 결정)

- 활용: 자연어 처리(문장 생성, 감정 분석, 번역), 시계열 예측(주가 예측, 날씨 예측), 음성 인식(STT), 바이오(유전자 서열 분석 등)

 

4. Transformer

- 문장을 한꺼번에 입력 받아, 전체 맥락을 고려해 처리하는 Self-Attention 메커니즘 기반의 딥러닝 구조

 

1) 핵심 구성 요소

- Self-Attention(각 단어가문장 내 다른 단어와 얼마나 관련이 있는지 계산)

- Multi-Head Attention(다양한 관점에서 Attention 수행(병렬처리)  : RNN은  순서대로 처리해야해서 느림

- Position Encoding(단어 순서 정보 보강, RNN 없이도 순서 감지 가능)

- Encoder/Decoder 구조(입력 인코딩 → 출력 생성(기계 번역, 문장 생성 등))

 

2) 문장 분류 평가기준

- 문장 분류(감정 분석, 뉴스 분류, 스팸 메일 분류 등) : 문장을 보고 하나의 레이블을 맞추는 문제

- Accuray: 전체 중 맞게 분류된 비율

- Precision: 예측한 것 중 실제로 맞은 비율

- Racall: 실제 정답 중 마준 비율

- F1-Score: Precision과 Recall의 조화 평균

- AUC-ROC: 분류 경계점 변화에 따른 성능 시각화(확률 기반 예측)

 

3)  번역/요약 평가 기준

- Transformer의 Encoder-Decoder 구조나 LLM이 자주 쓰이는 작업

- BLEU: 기계 번역, 예측된 문장과 정답 문장의 n-gram 겹침 비율, 번역 정확도 측정, 숫자로 쉽게 비교 가능

- ROUGE: 요약, 정답 요약과의 공통 부분 회수율(Recall 기준), 요약 평가에 자주 사용

- METEOR: 번역+의미 유사성, BLUE보다 더 세미하게: 동의어, 어순 등 반영, 언어간 비교에서 성능 우수

 

4) 문장 생성 평가 기준

- 질문에 대한 답변 생성, 스토리만들기, 챗봇 대화 등 정답이 하나가 아닌 경우, 정량 평가가 어려워짐

- Perplexity: 언어 모델이 다음 단어를 얼마나 당황하지 않고 예측하는가(log-likelihood 기반)

- Human Evaluation: 사람이 직접 읽고 평가(정확성, 자연스러움 등), 최종적으로 가장 신뢰할 수 있는 방식

- Diversity(n-gram distinct): 문장이 얼마나 다양하게 생성되었는지 (중복된 문장이 많은 경우 낮아짐)

 

5) 임베딩 활용 모델

- 유사 문장 검색, 질문-문서 매칭, 검색 기반 RAG 시슽ㅁ 등

- Transformer는 단어/문장을 벡터로 바꾼 뒤 유사도 기반 검색/추천에 사용됨

- Cosine  Similarity: 임베딩 벡터 간 각도 비교(1에 가까울 수록 유사), 문장/문서 간 유사도 계산

- Recall@k: 정답이 Top-k안에 포함됐는지 여부, 유사 문서 검색 정확도

- MRR(Mean Reciprocal Rank): 정답이 몇 번째에 나왔는지 평균 순위 평가, 질문-문서 매칭 등 순위형 태스크

 

5. GAN

- 생성자와 판별자가 서로 경쟁하는 구조

- 생성자는 진짜 같은 가짜를 만들고,  판별자는 진짜/가짜 구분

- 학습이 잘 되면 생성자가 매우 그럴듯한 데이터를 만들어냄

- 활용: 이미지 생성, 얼굴 합성, 스타일 변환, 데이터 증강 등

- 평가방법: FID(가짜 vs 진짜 이미지의 분포 차이 측정- 낮을수록 좋음), IS(생성 이미지의 다양성과 품질 평가-높을수록 좋음)

 

 

반응형
공지사항
최근에 올라온 글
최근에 달린 댓글
Total
Today
Yesterday
링크
«   2025/05   »
1 2 3
4 5 6 7 8 9 10
11 12 13 14 15 16 17
18 19 20 21 22 23 24
25 26 27 28 29 30 31
글 보관함