深圳企业网站制作公司,常州建设银行网站,上海网站seo排名,企业网站建设目的是什么提示#xff1a;文章写完后#xff0c;目录可以自动生成#xff0c;如何生成可参考右边的帮助文档 文章目录 前言一、关于这个实战的一些知识点Q1#xff1a;图像识别实战常用模块解读Q2:数据增强Q3:迁移学习Q4#xff1a;平均全局池化Q5#xff1a;设置哪些层需要训练时… 提示文章写完后目录可以自动生成如何生成可参考右边的帮助文档 文章目录 前言一、关于这个实战的一些知识点Q1图像识别实战常用模块解读Q2:数据增强Q3:迁移学习Q4平均全局池化Q5设置哪些层需要训练时的模型保存filenamebest.pt 数据集具体的实现代码1.导入用到的模块2.数据读取与预处理操作3.加载模型初始化参数修改模型输出层设置哪些层需要训练优化器设置训练模块开始训练加载训练好的模型测试得到概率最大的分类展示预测结果 前言
深度学习pytorch系列第四篇之前更了FCNNcNN这一篇是用resnet18实现花朵分类依然是重在理解。 一、关于这个实战的一些知识点
Q1图像识别实战常用模块解读
数据预处理 数据增强torchvision中transforms模块自带功能比较实用 数据预处理torchvision中transforms中已经实现好了直接调用即可 DataLoader模块直接读取batch数据 网络模块设置 1、加载预训练模型torchvision中有很多经典网络架构调用起来十分方便并且可以用人家训练好的权重参数来继续训练也就是所谓的迁移学习 2、需要注意的是别人训练好的任务跟我们的可不是完全一样需要把最后的head层改一改一般也就是最后的全连接层改成自己的任务 3、训练时可以全部重头训练也可以只训练最后咱们任务的层因为前几层都是做特征提取的本质任务目标是一致的 网络模型保存与测试 模型保存的时候可以带有选择性例如在验证集中如果当前效果好则保存 读取模型进行实际测试
Q2:数据增强
数据增强数据不够时通过数据增强更高效的利用数据平移翻转放大等方法让数据具有更多的多样性
Q3:迁移学习
迁移学习让模型从0开始及其困难站在巨人肩膀上学习 在做好的模型上进行微调从零初始化参数学习效果差可以模型权重参数用人家的用到我们自己的数据进行初始化 即使数据集不一样只要是任务目的是类似的就可以用 在预训练模型的基础上进行微调所以预训练模型的选择比较重要 微调怎么微调微调多少东西 dataset分为大、中、小 数据量少的情况冻住不改东西 数据量中的情况冻住一点可以改一些东西 数据量大的情况可以只用模型参数进行初始化可以大改也可以不改 不管数据量大小输出层都不能冻起来输出层要根据自己的任务来设计 模型参数要不要更新 有时候用人家模型就一直用了更不更新咱们可以自己定
Q4平均全局池化
在这里做一个小总结 目前接触到的将特征图转成向量的方法 ①reshape reshape操作总的大小是不变的提供一个维度后后边的维度自动计算 例如x x.view(x.size(0), -1) 当前的x指的是特征图大小为6477x.size:64也就是要从三维转成两维总的大小不变就变为6449这样 -1可以简单的看成一 个占位符号 从而达到变换维度的作用开始是6477转成batchsize特征个数比如64*49 ②平均全局池化 AdaptiveAvgPool2d平均全局池化output_size(1, 1)特征图平均池化成一个值然后拼接这些特征值 得到一个向量这里是得到一个512维的向量这种是通用的方法reshape哪种方法不太常用因为需要固定size的大小
Q5设置哪些层需要训练时的模型保存filename‘best.pt’ 由于模型会随着epoch的进行存在上边图中的现象不是epoch越多训练结果越好本次分类训练中我们保存当前这些epoch中训练结果做好的参数用于之后的验证和测试
数据集
如果你想复现的话把代码按数据粘贴就能跑 然后我用的文件放到链接里需要的下载 链接数据集 提取码vkgj
具体的实现代码
1.导入用到的模块
import os
import matplotlib.pyplot as plt
import numpy as np
import torch
from torch import nn
import torch.optim as optim
import torchvision
#pip install torchvision
from torchvision import transforms, models, datasets
#https://pytorch.org/docs/stable/torchvision/index.html
import imageio
import time
import warnings
warnings.filterwarnings(ignore)
import random
import sys
import copy
import json
from PIL import Image
import torch
from torchvision import models2.数据读取与预处理操作
#读取数据
data_dir ./flower_data/
train_dir data_dir /train
valid_dir data_dir /valid制作数据源 data_transforms中指定了所有图像预处理操作 ImageFolder假设所有的文件按文件夹保存好每个文件夹下面存贮同一类别的图片文件夹的名字为分类的名字
data_transforms {train: transforms.Compose([
# Compose按顺序进行组合 transforms.Resize([96, 96]),
# 不管原数据的大小规定用于训练的图片的大小Resize根据实际来#以下6行代码是数据增强的过程数据不够时通过数据增强更高效的利用数据平移翻转放大等方法让数据具有更多的多样性transforms.RandomRotation(45),#随机旋转-45到45度之间随机选transforms.CenterCrop(64),#从中心开始裁剪
# 从96*96 随机裁剪64*64也有无数种可能性transforms.RandomHorizontalFlip(p0.5),#随机水平翻转 选择一个概率概率transforms.RandomVerticalFlip(p0.5),#随机垂直翻转
# p0.5指的是每张图像有50%的裁剪可能性transforms.ColorJitter(brightness0.2, contrast0.1, saturation0.1, hue0.1),#参数1为亮度参数2为对比度参数3为饱和度参数4为色相
# #参数1为亮度参数2为对比度参数3为饱和度参数4为色相不是重点考虑极端光线条件transforms.RandomGrayscale(p0.025),#概率转换成灰度率3通道就是RGBtransforms.ToTensor(),
# 转成pytorch专用格式 transforms.Normalize([0.485, 0.456, 0.406], [0.229, 0.224, 0.225])#均值标准差
# 标准化 参数来源是大数据集的参数由于有三个颜色通道R,G,B所以有三个μ和σ
# 标准化(x-μ)/σ]),valid:
# 验证集不需要再进行图像加强的过程用原有的数据进行验证即可transforms.Compose([transforms.Resize([64, 64]),
# 数据大小要和训练集一样大transforms.ToTensor(),transforms.Normalize([0.485, 0.456, 0.406], [0.229, 0.224, 0.225])
# 验证集和测试集标准化采用的均值标准差要一致 ]),
}batch_size 128
# batchsize比较大是因为图片是64*64的比较小
# 通过文件夹来获取数据和标签
image_datasets {x: datasets.ImageFolder(os.path.join(data_dir, x), data_transforms[x]) for x in [train, valid]}
# for x in [train, valid]文件夹名字
dataloaders {x: torch.utils.data.DataLoader(image_datasets[x], batch_sizebatch_size, shuffleTrue) for x in [train, valid]}
# shuffleTrue 表示在每个迭代中是否对数据进行打乱
dataset_sizes {x: len(image_datasets[x]) for x in [train, valid]}
class_names image_datasets[train].classes
# class_names顺序是1,10,100,101,102先预测1开头的再预测2开头的读取每个分类的名字
with open(cat_to_name.json, r) as f:cat_to_name json.load(f)
# json文件每个分类的名字3.加载模型初始化参数
针对模型下载我在代码运行的时候报错【RuntimeErrorPytorchStreamReader failed reading zip archive: failed finding central directory】有这个错误的可以查看问题解决
# 加载models中提供的模型并且直接用训练的好权重当做初始化参数
# 第一次执行需要下载可能会比较慢
model_name resnet #可选的比较多 [resnet, alexnet, vgg, squeezenet, densenet, inception]
#是否用人家训练好的特征来做
feature_extract True #都用人家特征先不更新
# 特征提取用人家的方法把所有层都冻住只保留输出层
# 是否用GPU训练
train_on_gpu torch.cuda.is_available()if not train_on_gpu:print(CUDA is not available. Training on CPU ...)
else:print(CUDA is available! Training on GPU ...)device torch.device(cuda:0 if torch.cuda.is_available() else cpu)设置参数需要梯度起初反向更新的参数设置为False不计算梯度参数就不更新使用原模型的参数进行训练
def set_parameter_requires_grad(model, feature_extracting):
# modelresnet
# feature_extractingtrueif feature_extracting:for param in model.parameters():
# 遍历模型中的每一个参数param.requires_grad False
# 反向更新的参数设置为False不计算梯度参数就不更新model_ft models.resnet18()#18层的能快点条件好点的也可以选152
print(model_ft)打印resnet18的网络结构 标准化的数据进行卷积训练conv2d后会发生变化所以要再进行标准化 网络的最后一层是 平均池化后接了一个全连接层目的是将特征转换成分类 最后一行可以看出原模型是1000分类要改成自己的任务目标 之前的操作是将一个特征图reshape成一个长条然后进行全连接操作预测分类 AdaptiveAvgPool2d平均全局池化output_size(1, 1)特征图平均池化成一个值然后拼接这些特征值 得到一个向量这里是得到一个512维的向量这种是通用的方法reshape哪种方法不太常用因为需要固定大小
修改模型输出层
# 把模型输出层改成自己的
def initialize_model(model_name, num_classes, feature_extract, use_pretrainedTrue):model_ft models.resnet18(pretraineduse_pretrained)# model_ft模型的名字# pretraineduse_pretrained用人家的参数进行初始化set_parameter_requires_grad(model_ft, feature_extract)# 读取参数但是都不更新了num_ftrs model_ft.fc.in_features# num_ftrs 全连接层的上一层数据这里就是512model_ft.fc nn.Linear(num_ftrs, num_classes) # 类别数自己根据自己任务来# num_classes102# 重新定义fc层 覆盖原有的fc层 自己定义的fc是使用反向传播的input_size 64 # 输入大小根据自己配置来return model_ft, input_size设置哪些层需要训练
model_ft, input_size initialize_model(model_name, 102, feature_extract, use_pretrainedTrue)#GPU还是CPU计算
model_ft model_ft.to(device)# 模型保存名字自己起
filenamebest.pt
# 保存网络结构图和模型里边所有的权重参数保存到本地# 是否训练所有层
params_to_update model_ft.parameters()print(Params to learn:)
# 如果 feature_extract 为 True则只打印需要更新的参数否则打印所有需要更新的参数。
if feature_extract:params_to_update []for name,param in model_ft.named_parameters():if param.requires_grad True:
# 需要的话再往里边传数据params_to_update.append(param)print(\t,name)
else:for name,param in model_ft.named_parameters():if param.requires_grad True:print(\t,name)可以打印一下当前的网络模型
print(model_ft)其他的没有变化只有最后一层的全连接层改成了我们自己的任务102分类
优化器设置
# 优化器设置
optimizer_ft optim.Adam(params_to_update, lr1e-2)#要训练啥参数你来定
scheduler optim.lr_scheduler.StepLR(optimizer_ft, step_size10, gamma0.1)
# 学习率衰减随着epoch的进行结果会越来越好降低学习率使结果更精确
# 以固定的间隔每10个epoch将学习率缩小为当前值的10%。这是为了在训练过程中逐渐减小学习率以帮助模型在训练后期更好地收敛。
criterion nn.CrossEntropyLoss()
# 交叉熵损失函数训练模块
def train_model(model, dataloaders, criterion, optimizer, num_epochs25,filenamebest.pt):
# model, dataloaders, criterion, optimizer, num_epochs25,filenamebest.pt
# resnet dataloaderslossAdamepoch模型存储文件#咱们要算时间的since time.time()#记录acc最好的那一次best_acc 0
# 最后的epoch结果的准确率比中间epoch准确率的结果差也是有可能的#模型也得放到你的CPU或者GPUmodel.to(device)#训练过程中打印一堆损失和指标val_acc_history []train_acc_history []train_losses []valid_losses []#学习率LRs [optimizer.param_groups[0][lr]]
# optimizer.param_groups[0]是个字典结构pytorch指定的#最好的那次模型后续会变的先初始化best_model_wts copy.deepcopy(model.state_dict())#一个个epoch来遍历for epoch in range(num_epochs):print(Epoch {}/{}.format(epoch, num_epochs - 1))print(- * 10)# 训练和验证for phase in [train, valid]:if phase train:model.train() # 训练else:model.eval() # 验证running_loss 0.0running_corrects 0# 把数据都取个遍for inputs, labels in dataloaders[phase]:inputs inputs.to(device)#放到你的CPU或GPUlabels labels.to(device)# 清零optimizer.zero_grad()# 只有训练的时候计算和更新梯度outputs model(inputs)
# outputsbatch*102loss criterion(outputs, labels)_, preds torch.max(outputs, 1)# 训练阶段更新权重if phase train:loss.backward()optimizer.step()# 计算损失先进行累加running_loss loss.item() * inputs.size(0)#0表示batch那个维度running_corrects torch.sum(preds labels.data)#预测结果最大的和真实值是否一致# 除以数据集总数得到平均的epoch_loss running_loss / len(dataloaders[phase].dataset)#算平均epoch_acc running_corrects.double() / len(dataloaders[phase].dataset)time_elapsed time.time() - since#一个epoch我浪费了多少时间print(Time elapsed {:.0f}m {:.0f}s.format(time_elapsed // 60, time_elapsed % 60))print({} Loss: {:.4f} Acc: {:.4f}.format(phase, epoch_loss, epoch_acc))# 训练阶段和验证阶段都要进行前向传播但是训练阶段还要进行参数更新而验证阶段不需要# 得到最好那次的模型if phase valid and epoch_acc best_acc:best_acc epoch_accbest_model_wts copy.deepcopy(model.state_dict())state {state_dict: model.state_dict(),#字典里key就是各层的名字值就是训练好的权重best_acc: best_acc,optimizer : optimizer.state_dict(),}torch.save(state, filename)if phase valid:val_acc_history.append(epoch_acc)valid_losses.append(epoch_loss)#scheduler.step(epoch_loss)#学习率衰减if phase train:train_acc_history.append(epoch_acc)train_losses.append(epoch_loss)print(Optimizer learning rate : {:.7f}.format(optimizer.param_groups[0][lr]))LRs.append(optimizer.param_groups[0][lr])print()scheduler.step()#学习率衰减time_elapsed time.time() - sinceprint(Training complete in {:.0f}m {:.0f}s.format(time_elapsed // 60, time_elapsed % 60))print(Best val Acc: {:4f}.format(best_acc))# 训练完后用最好的一次当做模型最终的结果,等着一会测试model.load_state_dict(best_model_wts)return model, val_acc_history, train_acc_history, valid_losses, train_losses, LRs 开始训练
只训练输出层
model_ft, val_acc_history, train_acc_history, valid_losses, train_losses, LRs train_model(model_ft, dataloaders, criterion, optimizer_ft, num_epochs20)再继续训练所有层
for param in model_ft.parameters():param.requires_grad True# 再继续训练所有的参数学习率调小一点
optimizer optim.Adam(model_ft.parameters(), lr1e-3)
scheduler optim.lr_scheduler.StepLR(optimizer_ft, step_size7, gamma0.1)# 损失函数
criterion nn.CrossEntropyLoss()# 加载之前训练好的权重参数checkpoint torch.load(filename)
best_acc checkpoint[best_acc]
model_ft.load_state_dict(checkpoint[state_dict])
model_ft, val_acc_history, train_acc_history, valid_losses, train_losses, LRs train_model(model_ft, dataloaders, criterion, optimizer, num_epochs10,)加载训练好的模型
model_ft, input_size initialize_model(model_name, 102, feature_extract, use_pretrainedTrue)# GPU模式
model_ft model_ft.to(device)# 保存文件的名字
filenamebest.pt# 加载模型
checkpoint torch.load(filename)
best_acc checkpoint[best_acc]
model_ft.load_state_dict(checkpoint[state_dict])测试
这里使用验证数据进行测试
# 得到一个batch的测试数据
dataiter iter(dataloaders[valid])
images, labels dataiter.next()model_ft.eval()if train_on_gpu:output model_ft(images.cuda())
else:output model_ft(images)得到概率最大的分类
_, preds_tensor torch.max(output, 1)preds np.squeeze(preds_tensor.numpy()) if not train_on_gpu else np.squeeze(preds_tensor.cpu().numpy())
preds展示预测结果
def im_convert(tensor): 展示数据image tensor.to(cpu).clone().detach()image image.numpy().squeeze()image image.transpose(1, 2, 0)image image * np.array((0.229, 0.224, 0.225)) np.array((0.485, 0.456, 0.406))image image.clip(0, 1)return image
figplt.figure(figsize(20, 20))
columns 4
rows 2for idx in range (columns*rows):ax fig.add_subplot(rows, columns, idx1, xticks[], yticks[])plt.imshow(im_convert(images[idx]))ax.set_title({} ({}).format(cat_to_name[str(preds[idx])], cat_to_name[str(labels[idx].item())]),color(green if cat_to_name[str(preds[idx])]cat_to_name[str(labels[idx].item())] else red))
plt.show()最后的测试结果标红的是预测错误的