রানটাইমএরর: ইনপুট টাইপ (টর্চ.ফ্লোটটেন্সর) এবং ওজন প্রকার (টর্চ.কুডা। ফ্লোটটেন্সর) একই হওয়া উচিত


9

আমি নিম্নলিখিত সিএনএনকে নিম্নরূপে প্রশিক্ষণ দেওয়ার চেষ্টা করছি, তবে .কুদা () সম্পর্কে আমি একই ত্রুটি পেতে থাকি এবং কীভাবে এটি ঠিক করতে হবে তা সম্পর্কে আমি নিশ্চিত নই। এখানে এখন পর্যন্ত আমার কোডের একটি অংশ।

import matplotlib.pyplot as plt
import numpy as np
import torch
from torch import nn
from torch import optim
import torch.nn.functional as F
import torchvision
from torchvision import datasets, transforms, models
from torch.utils.data.sampler import SubsetRandomSampler


data_dir = "/home/ubuntu/ML2/ExamII/train2/"
valid_size = .2

# Normalize the test and train sets with torchvision
train_transforms = transforms.Compose([transforms.Resize(224),
                                           transforms.ToTensor(),
                                           ])

test_transforms = transforms.Compose([transforms.Resize(224),
                                          transforms.ToTensor(),
                                          ])

# ImageFolder class to load the train and test images
train_data = datasets.ImageFolder(data_dir, transform=train_transforms)
test_data = datasets.ImageFolder(data_dir, transform=test_transforms)


# Number of train images
num_train = len(train_data)
indices = list(range(num_train))
# Split = 20% of train images
split = int(np.floor(valid_size * num_train))
# Shuffle indices of train images
np.random.shuffle(indices)
# Subset indices for test and train
train_idx, test_idx = indices[split:], indices[:split]
# Samples elements randomly from a given list of indices
train_sampler = SubsetRandomSampler(train_idx)
test_sampler = SubsetRandomSampler(test_idx)
# Batch and load the images
trainloader = torch.utils.data.DataLoader(train_data, sampler=train_sampler, batch_size=1)
testloader = torch.utils.data.DataLoader(test_data, sampler=test_sampler, batch_size=1)


#print(trainloader.dataset.classes)

device = torch.device("cuda" if torch.cuda.is_available() else "cpu")
model = models.resnet50(pretrained=True)

model.fc = nn.Sequential(nn.Linear(2048, 512),
                                 nn.ReLU(),
                                 nn.Dropout(0.2),
                                 nn.Linear(512, 10),
                                 nn.LogSigmoid())
                                 # nn.LogSoftmax(dim=1))
# criterion = nn.NLLLoss()
criterion = nn.BCELoss()
optimizer = optim.Adam(model.fc.parameters(), lr=0.003)
model.to(device)

#Train the network
for epoch in range(2):  # loop over the dataset multiple times

    running_loss = 0.0
    for i, data in enumerate(trainloader, 0):
        # get the inputs; data is a list of [inputs, labels]
        inputs, labels = data

        # zero the parameter gradients
        optimizer.zero_grad()

        # forward + backward + optimize
        outputs = model(inputs)
        loss = criterion(outputs, labels)
        loss.backward()
        optimizer.step()

        # print statistics
        running_loss += loss.item()
        if i % 2000 == 1999:    # print every 2000 mini-batches
            print('[%d, %5d] loss: %.3f' %
                  (epoch + 1, i + 1, running_loss / 2000))
            running_loss = 0.0

print('Finished Training')

তবে কনসোলে আমি এই ত্রুটিটি পেতে থাকি:

রানটাইমরিয়ার: ইনপুট টাইপ (টর্চ.ফ্লোটাটেন্সর) এবং ওজন প্রকার (টর্চ.কুডা.ফ্লাটটেন্সার) একই হওয়া উচিত`

এটি ঠিক করার জন্য কোন চিন্তা? আমি পড়েছি যে মডেলটি আমার জিপিইউতে ঠেলাঠেলি করা হয়নি, তবে কীভাবে এটি ঠিক করবেন তা নিশ্চিত নন। ধন্যবাদ!

উত্তর:


11

আপনি এই ত্রুটিটি পান কারণ আপনার মডেলটি জিপিইউতে রয়েছে তবে আপনার ডেটা সিপিইউতে রয়েছে। সুতরাং, আপনাকে আপনার ইনপুট টেনারগুলি CUDA তে প্রেরণ করতে হবে।

inputs, labels = data
inputs, labels = inputs.cuda(), labels.cuda() # add this line

বা এটির মতো, আপনার বাকী কোডের সাথে সামঞ্জস্য থাকতে:

inputs, labels = inputs.to(device), labels.to(device)

একই ভুল বার্তা পপ আপ করবে যদি আপনার ডেটা CUDA চালু থাকে, তখন কিন্তু আপনার মডেল নয়। এই ক্ষেত্রে, আপনার CUDA এ আপনার মডেল প্রেরণ করা প্রয়োজন।

model = MyModel()

if torch.cuda.is_available():
    model.cuda()
আমাদের সাইট ব্যবহার করে, আপনি স্বীকার করেছেন যে আপনি আমাদের কুকি নীতি এবং গোপনীয়তা নীতিটি পড়েছেন এবং বুঝতে পেরেছেন ।
Licensed under cc by-sa 3.0 with attribution required.