티스토리 뷰

1. 순서

데이터셋 → 배치로 분할 → 모델 생성 → 학습 및 가중치 최적화

 

2. baseline

import torch
from torch import nn

# 데이터 정의
x_train = torch.Tensor([1,2,3,4,5,6]).view(6,1)
y_train = torch.Tensor([3,4,5,6,7,8]).view(6,1)

# Dataset/DataLoader 데이터 정의
from torch.utils.data import TensorDataset
from torch.utils.data import DataLoader

dataset = TensorDataset(X_train, y_train)
dataloader = DataLoader(dataset, batch_size32, shuffle=True)

# 신경망 모델 구축
class MyNeralNetwork(nn.Module):

    # 모델 layer 쌓기
    def __init__(self):
        super().__init__()
        self.flatten = nn.Flatten()
        self.linear_relu_stack = nn.Sequential(
            nn.Linear(28*28,512),
            nn.ReLU(),
            nn.Linear(512,10)
        )

    # 피드포워드 : 학습하고 값 예측하기
    def forward(self, x):
        x = self.flatten(x)
        logits = self.linear_relu_stack(x)

        return logits
    
# 신경망 모델 인스턴스 생성    
model = MyNeralNetwork()

# 손실함수 정의 (오차를 계산하기 위해)
loss_function = nn.MSELoss()
# 회귀는 nn.MSELoss(), 분류는 nn.CrossEntropyLoss()

# 최적화 알고리즘 정의 (오차를 줄이는 가중치를 찾기 위해)
optimizer = torch.optim.SGD(model.parameters(),lr=1e-2)    

nums_epoch = 2000

# 모델 학습 및 모델 파라미터 최적화
for epoch in range(nums_epoch+1):

    prediction = model(x_train) # 피드포워드가 자동 실행됨(직접 forward호출하면 안됨)
    loss = loss_function(prediction, y_train) # 오차 계산

    # 역전파 및 가중치 업데이트
    optimizer.zero_grad() # 미분값을 초기화 해줌
    loss.backward() # 미분해줌 
    optimizer.step() # 미분한 값을 파라미터에 업데이트 해줌

    if epoch % 100 == 0 :
        loss_val = loss.item()
        print('epoch=', epoch, 'current_loss=', loss_val)

 

※ 참고 자료: 파이토치[박성호] : https://www.youtube.com/watch?v=xqt4s4M87X0&list=PLS8gIc2q83Oit-utRso2iblvt00fZOw85&index=3

반응형
공지사항
최근에 올라온 글
최근에 달린 댓글
Total
Today
Yesterday
링크
«   2024/12   »
1 2 3 4 5 6 7
8 9 10 11 12 13 14
15 16 17 18 19 20 21
22 23 24 25 26 27 28
29 30 31
글 보관함