新东西太多了,一点点写

准备阶段

三个小概念

epoch—batch—iteration

图像通道表示

shape为[w, h, c]nump.ndarrayimg

shape为[c, w, h]Tensor

参考文章:np.ndarray的[w, h, c]转为Tensor的[c, w, h]

torchvision

  • torchvision.transforms.Compose(),其主要作用是主要作用是串联多个图片变换的操作,Compose里面的参数实际上就是个列表,而这个列表里面的元素就是你想要执行的transform操作

    下面的语句表示这个串联操作会先执行torchvision.transforms.ToTensor(),再执行torchvision.transforms.Normalize()

    `transform = torchvision.transforms.Compose([torchvision.transforms.ToTensor(),

                                torchvision.transforms.Normalize(mean = [0.5],std = [0.5])])`
    
    image-20220523145145331
  • transforms.ToTensor()transforms.Normalize()函数解析

    简单来说,前者转换输入图片的格式(格式变化见上一个小标题“图像通道表示”),并归一化到(0,1)

    后者使用公式"(x-mean)/std",将每个元素分布到(-1,1)

  • torchvision中datasets.MNIST介绍

    image-20220523150134635

构建数据集

batch_size

训练神经网络时如何确定batch的大小?

深度学习中BATCH_SIZE的含义

Datasets&Dataloaders

数据增强操作

PyTorch 学习笔记:transforms的二十二个方法(transforms用法非常详细)

建立模型

面向对象编程的方式搭建CNN网络 | PyTorch系列(十三)

CNN层参数详解 | PyTorch系列(十四)

PyTorch神经网络中可学习的参数——CNN权重 | PyTorch系列(十五)

深度学习中Flatten层的作用

  • 输出特征图的维度

    公式

很怪 用的网络不一样 Acc Rate能差1%

还得多研究研究