当前位置: 首页 > news >正文

dw自己做的网站手机进不去网站做搜索引擎的作用是什么

dw自己做的网站手机进不去,网站做搜索引擎的作用是什么,网页设计的网站,ui网页设计课程总结前言 反向传播可以求出神经网路中每个需要调节参数的梯度(grad)#xff0c;优化器可以根据梯度进行调整#xff0c;达到降低整体误差的作用。下面我们对优化器进行介绍。 1. 如何使用优化器 官方文档:torch.optim — PyTorch 2.0 documentation #xff08;1#xff09;构…前言 反向传播可以求出神经网路中每个需要调节参数的梯度(grad)优化器可以根据梯度进行调整达到降低整体误差的作用。下面我们对优化器进行介绍。 1. 如何使用优化器 官方文档:torch.optim — PyTorch 2.0 documentation 1构造优化器 举个栗子: optimizer optim.SGD(model.parameters(), lr0.01, momentum0.9) optimizer optim.Adam([var1, var2], lr0.0001) 首先选择优化器的算法optim.SGD 之后在优化器中放入模型参数model.parameters()这一步是必备的 还可在函数中设置一些参数如学习速率lr0.01这是每个优化器中几乎都会有的参数 2调用优化器中的step方法 step()方法就是利用我们之前获得的梯度对神经网络中的参数进行更新。 举个栗子 for input, target in dataset:optimizer.zero_grad()output model(input)loss loss_fn(output, target)loss.backward()optimizer.step() 步骤optimizer.zero_grad()是必选的 我们的输入经过了模型并得到了输出output 之后计算输出和target之间的误差loss 调用误差的反向传播loss.backwrd更新每个参数对应的梯度。 调用optimizer.step()对卷积核中的参数进行优化调整。 之后继续进入for循环使用函数optimizer.zero_grad()对每个参数的梯度进行清零防止上一轮循环中计算出来的梯度影响下一轮循环。 2. 优化器的使用 优化器中算法共有的参数其他参数因优化器的算法而异 params: 传入优化器模型中的参数 lr: learning rate即学习速率 关于学习速率 一般来说学习速率设置得太大模型运行起来会不稳定 学习速率设置得太小模型训练起来会过慢 建议在最开始训练模型的时候选择设置一个较大的学习速率训练到后面的时候再选择一个较小的学习速率 代码栗子 import torch.optim import torchvision from torch import nn from torch.nn import Conv2d, MaxPool2d, Flatten, Linear, Sequential from torch.utils.data import DataLoaderdatasettorchvision.datasets.CIFAR10(./dataset,trainFalse,downloadTrue,transformtorchvision.transforms.ToTensor()) dataloderDataLoader(dataset,batch_size1)class Demo(nn.Module):def __init__(self):super(Demo,self).__init__()self.model1Sequential(Conv2d(3,32,5,padding2),MaxPool2d(2),Conv2d(32, 32, 5, padding2),MaxPool2d(2),Conv2d(32, 64, 5, padding2),MaxPool2d(2),Flatten(),Linear(1024, 64),Linear(64, 10))def forward(self,x):xself.model1(x)return xdemoDemo() lossnn.CrossEntropyLoss()#设置优化器 #选择随机梯度下降 optimtorch.optim.SGD(demo.parameters(),lr0.01) #一般来说学习速率设置得太大模型运行起来会不稳定设置得太小模型训练起来会比较慢#对数据进行20次循环 for epoch in range(20):running_loss0.0 #初始化loss#该循环只对数据进行了一次训练for data in dataloder:imgs,targetsdataoutputdemo(imgs)result_lossloss(output,targets)#----------------优化器训练过程---------------------optim.zero_grad() #各个参数对应的梯度设置为0result_loss.backward() #反向传播得到每个节点对应的梯度optim.step() #根据每个参数的梯度对参数进行调优running_lossrunning_lossresult_loss #累加该轮循环的loss计算该轮循环整体误差的总和print(running_loss) #输出该轮循环整体误差的总和 [Run] tensor(18713.4336, grad_fn) tensor(16178.3564, grad_fn) tensor(15432.6172, grad_fn) tensor(16043.1025, grad_fn) tensor(18018.3359, grad_fn) … 总结使用优化器训练的训练套路 设置损失函数loss function 定义优化器optim 从使用循环dataloader中的数据for data in dataloder 取出图片imgs标签targetsimgs,targetsdata 将图片放入神经网络并得到一个输出outputmodel(imgs) 计算误差loss_resultloss(output,targets) 使用优化器初始化参数的梯度为0optim.zero_grad() 使用反向传播求出梯度loss_result.backward() 根据梯度对每一个参数进行更新optim.step() 进入下一个循环直到完成训练所需的循环次数 3. 如何调整学习速率 再复制粘贴一次 一般来说学习速率设置得太大模型运行起来会不稳定 学习速率设置得太小模型训练起来会过慢 建议在最开始训练模型的时候选择设置一个较大的学习速率训练到后面的时候再选择一个较小的学习速率 pytorch中提供了一些方法可以动态地调整学习速率 官方文档StepLR — PyTorch 2.0 documentation 1StepLR参数简介 参数介绍 optimizer: 放入模型所使用的优化器名称 step_size(int): 训练的时候每多少步进行一个更新 gamma(float): 默认为0.1。在循环中每次训练的时候新的学习速率原来学习速率×gamma 不同的优化器中有很多不同的参数但是这些参数都是跟几个特定的算法相关的这些需要使用的时候再去了解。 如果只是单纯地使用优化器那么只需设置optimizer和学习速率就可以满足绝大部分的训练需求。 2StepLR代码栗子 import torch.optim import torchvision from torch import nn from torch.nn import Conv2d, MaxPool2d, Flatten, Linear, Sequential from torch.utils.data import DataLoaderdatasettorchvision.datasets.CIFAR10(./dataset,trainFalse,downloadTrue,transformtorchvision.transforms.ToTensor()) dataloderDataLoader(dataset,batch_size1)class Demo(nn.Module):def __init__(self):super(Demo,self).__init__()self.model1Sequential(Conv2d(3,32,5,padding2),MaxPool2d(2),Conv2d(32, 32, 5, padding2),MaxPool2d(2),Conv2d(32, 64, 5, padding2),MaxPool2d(2),Flatten(),Linear(1024, 64),Linear(64, 10))def forward(self,x):xself.model1(x)return xdemoDemo() lossnn.CrossEntropyLoss()#设置优化器 #选择随机梯度下降 optimtorch.optim.SGD(demo.parameters(),lr0.01) #一般来说学习速率设置得太大模型运行起来会不稳定设置得太小模型训练起来会比较慢#加入学习速率更新 scheduler torch.optim.lr_scheduler.StepLR(optim, step_size5, gamma0.1)#对数据进行20次循环 for epoch in range(20):running_loss0.0 #初始化loss#该循环只对数据进行了一次训练for data in dataloder:imgs,targetsdataoutputdemo(imgs)result_lossloss(output,targets)#----------------优化器训练过程---------------------optim.zero_grad() #各个参数对应的梯度设置为0如果不写这行代码那么每次循环中都会对这个梯度进行累加result_loss.backward() #反向传播得到每个节点对应的梯度#optim.step() #根据每个参数的梯度对参数进行调优scheduler.step() #对每个参数的学习速率进行调整通过scheduler可以在每次循环中对学习速率进行下降running_lossrunning_lossresult_loss #累加该轮循环的loss计算该轮循环整体误差的总和print(running_loss) #输出该轮循环整体误差的总和 最后的最后 感谢你们的阅读和喜欢我收藏了很多技术干货可以共享给喜欢我文章的朋友们如果你肯花时间沉下心去学习它们一定能帮到你。 因为这个行业不同于其他行业知识体系实在是过于庞大知识更新也非常快。作为一个普通人无法全部学完所以我们在提升技术的时候首先需要明确一个目标然后制定好完整的计划同时找到好的学习方法这样才能更快的提升自己。 这份完整版的大模型 AI 学习资料已经上传CSDN朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】 一、全套AGI大模型学习路线 AI大模型时代的学习之旅从基础到前沿掌握人工智能的核心技能 二、640套AI大模型报告合集 这套包含640份报告的合集涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师还是对AI大模型感兴趣的爱好者这套报告合集都将为您提供宝贵的信息和启示。 三、AI大模型经典PDF籍 随着人工智能技术的飞速发展AI大模型已经成为了当今科技领域的一大热点。这些大型预训练模型如GPT-3、BERT、XLNet等以其强大的语言理解和生成能力正在改变我们对人工智能的认识。 那以下这些PDF籍就是非常不错的学习资源。 四、AI大模型商业化落地方案 五、面试资料 我们学习AI大模型必然是想找到高薪的工作下面这些面试题都是总结当前最新、最热、最高频的面试题并且每道题都有详细的答案面试前刷完这套面试题资料小小offer不在话下。 这份完整版的大模型 AI 学习资料已经上传CSDN朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】
http://www.pierceye.com/news/205910/

相关文章:

  • 给自己的公司做网站怎么做好电脑手机一体网站
  • 精通网站建设 全能建站密码pdf电商网站设计理念
  • 百度推广建设网站是不是合发手机网站的必要性
  • 企业网站建设是什么实现的物质基础和技术支撑现货交易平台代理
  • 网站建设的描述长沙发布app
  • 好的设计作品网站代理网站建设
  • 做网站的软件m开头网站建设公司问候语
  • 做网站需要工商证吗app软件开发价格
  • 做足球原创短视频网站网站建设永远在路上
  • 做seo为什么要了解网站苏州做网站公司
  • 这几年做哪些网站能致富网站开发账务处理
  • 网站的版权信息做阿里巴巴网站卖货咋样
  • 找项目去哪个网站成都哪里有做网站的公司
  • 网站推广的方法及特点国外专门做童装的网站
  • 企业网站开发模型图wordpress 侧边导航
  • 济南网站系统优化网站建设属于什么专业
  • 114啦建站程序页面效果好的网站
  • 龙华网站建设-信科网络电子商务网站建设和技术现状
  • 网站备案有效期wordpress 评论图片
  • 搭建网站需要哪些步骤wordpress 主题使用
  • 网站怎么发布做微商天眼官方网站
  • qq群网站制作异常网站服务器失去响应
  • aspnet网站开发模板紫光华宇拼音输入法官方下载
  • 东莞网站设计价格wordpress的配置dns
  • 韶关网站建设公司电子商务网站建设考试重点
  • 网站左侧 导航小红书广告投放平台
  • 资阳住房和城乡建设厅网站重庆建设网站建站
  • 网站制作厂家电话多少女生学网络工程难吗
  • 网站建设要经历哪些步骤?网站建设岗位周计划
  • 贵阳网站制作工具福步外贸论坛网首页