AI/딥러닝
[딥러닝] PyTorch 신경망 모델 구축 baseline
brave_sol
2024. 12. 6. 01:11
1. 순서
데이터셋 → 배치로 분할 → 모델 생성 → 학습 및 가중치 최적화
2. baseline
import torch
from torch import nn
# 데이터 정의
x_train = torch.Tensor([1,2,3,4,5,6]).view(6,1)
y_train = torch.Tensor([3,4,5,6,7,8]).view(6,1)
# Dataset/DataLoader 데이터 정의
from torch.utils.data import TensorDataset
from torch.utils.data import DataLoader
dataset = TensorDataset(X_train, y_train)
dataloader = DataLoader(dataset, batch_size32, shuffle=True)
# 신경망 모델 구축
class MyNeralNetwork(nn.Module):
# 모델 layer 쌓기
def __init__(self):
super().__init__()
self.flatten = nn.Flatten()
self.linear_relu_stack = nn.Sequential(
nn.Linear(28*28,512),
nn.ReLU(),
nn.Linear(512,10)
)
# 피드포워드 : 학습하고 값 예측하기
def forward(self, x):
x = self.flatten(x)
logits = self.linear_relu_stack(x)
return logits
# 신경망 모델 인스턴스 생성
model = MyNeralNetwork()
# 손실함수 정의 (오차를 계산하기 위해)
loss_function = nn.MSELoss()
# 회귀는 nn.MSELoss(), 분류는 nn.CrossEntropyLoss()
# 최적화 알고리즘 정의 (오차를 줄이는 가중치를 찾기 위해)
optimizer = torch.optim.SGD(model.parameters(),lr=1e-2)
nums_epoch = 2000
# 모델 학습 및 모델 파라미터 최적화
for epoch in range(nums_epoch+1):
prediction = model(x_train) # 피드포워드가 자동 실행됨(직접 forward호출하면 안됨)
loss = loss_function(prediction, y_train) # 오차 계산
# 역전파 및 가중치 업데이트
optimizer.zero_grad() # 미분값을 초기화 해줌
loss.backward() # 미분해줌
optimizer.step() # 미분한 값을 파라미터에 업데이트 해줌
if epoch % 100 == 0 :
loss_val = loss.item()
print('epoch=', epoch, 'current_loss=', loss_val)
※ 참고 자료: 파이토치[박성호] : https://www.youtube.com/watch?v=xqt4s4M87X0&list=PLS8gIc2q83Oit-utRso2iblvt00fZOw85&index=3
반응형