LeNet

模型

import torch.nn as nn
import torch.nn.functional as F


class LeNet(nn.Module):
    def __init__(self):
        super(LeNet, self).__init__()
        # 第一层卷积网络,输入图片是 32 * 32,彩色图片有RGB 3个通道,记为:input(3, 32, 32)
        # 设置 16 个 filter 卷积核,那么本层网络输出的图像就有16层
        # 那么传递给下一层网络,下一层网络的 in_channels 就是 16
        # filter 大小是 5*5,那么输出图像的大小就是 32-5 +1 = 28,即 28 * 28 的输出大小
        # 本层网络输出记为:output(16, 28, 28)
        self.conv1 = nn.Conv2d(
            in_channels=3, # 第一层网络的通道数,如果是黑白的那就只有1个通道
            out_channels=16, # 相当于 filter 的个数
            kernel_size=5,  # filter 宽高设置为 5*5
            stride=1,  # filter每次移动的步长
            padding=0  # 扩展图片的边界,这里扩展0层,如果是大于0,那么扩展的像素值是设置为0的,0是黑色,255是白色
            )
        # 2*2 的池化层, 把图片宽高变成一半,channel不变
        # input(16, 28, 28) -> output(16, 14, 14)
        self.pool1 = nn.MaxPool2d(kernel_size=2, stride=2)
        # 卷积层, in_channels 是上一层的输出 16
        # 设置本层卷积 out_channels 为 32,filter 宽高设置为 5*5
        # 14 - 5 + 1 = 10
        # input(16, 14, 14) -> output(32, 10, 10)
        self.conv2 = nn.Conv2d(16, 32, 5)
        # 池化, input(32, 10, 10) -> output(32, 5, 5)
        self.pool2 = nn.MaxPool2d(2, 2)
        # 全连接层, 在 forward 中会把图片拉平成一维向量再传给全连接层
        # 因此,全连接层的 in_channels 要用上一层的 out_channels 乘上图片的宽高,即:32*5*5
        # input(32*5*5) -> output(120)
        self.fc1 = nn.Linear(in_channels=32*5*5, out_channels=120)
        # 全连接层,input(120) -> output(84)
        self.fc2 = nn.Linear(120, 84)
        # 最后一层网络,要做分类了,out_channels 要设置为类别总数,input(84) -> output(10)
        self.fc3 = nn.Linear(84, 10)

    # 这个就是数据集在网络中的逐层前向传播触发函数, 框架会自动调用这个函数
    # x 的 shape 是 [batch, channel, height, width]
    def forward(self, x):
        # 先走 conv1,然后 relu 处理 conv1 的结果
        x = F.relu(self.conv1(x))    
        x = self.pool1(x)            
        x = F.relu(self.conv2(x))    
        x = self.pool2(x)           
        # 把图像拉平成一维向量再传递给全连接层处理
        x = x.view(-1, 32*5*5)       
        x = F.relu(self.fc1(x))      
        x = F.relu(self.fc2(x))      
        x = self.fc3(x)              
        return x

训练

import torch
import torchvision
import torch.nn as nn
from model import LeNet
import torch.optim as optim
import torchvision.transforms as transforms


def main():
    # 数据集的预处理
    transform = transforms.Compose(
        [transforms.ToTensor(),
         transforms.Normalize((0.5, 0.5, 0.5), (0.5, 0.5, 0.5))])

    # 50000张训练图片
    train_set = torchvision.datasets.CIFAR10(
        root='./data', # 本数据集的保存路径 
        train=True,  # 是需要训练的训练集数据
        download=False,  # 第一次使用时要将download设置为True才会自动去下载数据集
        transform=transform  # 设置数据预处理
        )
    train_loader = torch.utils.data.DataLoader(
        train_set, 
        batch_size=36,  # 分批次加载,设置每一批是36个样本, 在机器内存允许范围内,batch_size设置的越大,训练效果越好
        shuffle=True,  # 是否随机提取样本
        num_workers=0
        )

    # 10000张验证图片
    val_set = torchvision.datasets.CIFAR10(
        root='./data', 
        train=False,  # 设置为False,表示是不需要训练的测试数据集
        download=False, 
        transform=transform)
    val_loader = torch.utils.data.DataLoader(
        val_set, 
        batch_size=5000,
        shuffle=False, 
        num_workers=0)
    val_data_iter = iter(val_loader)
    val_image, val_label = val_data_iter.next()
    
    # classes = ('plane', 'car', 'bird', 'cat',
    #            'deer', 'dog', 'frog', 'horse', 'ship', 'truck')

    net = LeNet()
    # 进 CrossEntropyLoss 看说明可以看出这个损失函数已经包含了 softmax
    loss_function = nn.CrossEntropyLoss()

    # 优化器
    optimizer = optim.Adam(net.parameters(), lr=0.001)

    # 对训练数据集迭代5轮
    for epoch in range(5):  
        running_loss = 0.0
        # 按批次遍历数据集
        for step, data in enumerate(train_loader, start=0):
            # get the inputs; data is a list of [inputs, labels]
            inputs, labels = data

            # zero the parameter gradients
            optimizer.zero_grad()
            # forward + backward + optimize
            outputs = net(inputs)  # 对定义的网络正向传播得到的输出
            loss = loss_function(outputs, labels)  # 对训练集的模型预测值和实际标签值计算损失函数
            loss.backward()  # 反向传播
            optimizer.step()  # 使用优化器的参数更新

            # print statistics
            running_loss += loss.item()
            if step % 500 == 499:    # print every 500 mini-batches
                # 这个步骤只是打印输出,指定在这个代码块里面不要去计算误差损失梯度,在验证测试和预测的环节都需要带上这个函数
                with torch.no_grad():  
                    # 对 val_image 这一批样本做预测
                    outputs = net(val_image)  # [batch, 10]
                    # 得到最有可能的类别
                    predict_y = torch.max(outputs, dim=1)[1]
                    # 与真实类别做比较,得到预测的正确率
                    accuracy = torch.eq(predict_y, val_label).sum().item() / val_label.size(0)

                    print('[%d, %5d] train_loss: %.3f  test_accuracy: %.3f' %
                          (epoch + 1, step + 1, running_loss / 500, accuracy))
                    # 把参数清零,进入下个批次的训练
                    running_loss = 0.0

    print('Finished Training')

    # 保存模型
    save_path = './Lenet.pth'
    torch.save(net.state_dict(), save_path)


if __name__ == '__main__':
    main()

预测

import torch
import torchvision.transforms as transforms
from PIL import Image

from model import LeNet


def main():
    transform = transforms.Compose(
        [transforms.Resize((32, 32)),
         transforms.ToTensor(),
         transforms.Normalize((0.5, 0.5, 0.5), (0.5, 0.5, 0.5))])

    classes = ('plane', 'car', 'bird', 'cat',
               'deer', 'dog', 'frog', 'horse', 'ship', 'truck')

    net = LeNet()
    # 加载模型权重文件
    net.load_state_dict(torch.load('Lenet.pth'))

    im = Image.open('1.jpg')  # 读取的图片是 [高度,宽度,通道数]
    im = transform(im)  # 预处理,比训练的预处理多加了一个Resize,使像素跟训练集一样 -> [C, H, W]
    im = torch.unsqueeze(im, dim=0)  # 再最前面增加一个维度,赋值为0 -> [N, C, H, W]

    with torch.no_grad():  # 指定不计算损失函数
        outputs = net(im)
        # 得到可能性最大的类别的索引
        predict = torch.max(outputs, dim=1)[1].data.numpy()
        # 也可以使用softmax处理:torch.softmax(outputs, dim=1)
    # 根据类别的索引号得到类别
    print(classes[int(predict)])


if __name__ == '__main__':
    main()

Last updated

Was this helpful?