当前位置: 首页 > news >正文

软件属于网站开发吗wordpress 首页变量

软件属于网站开发吗,wordpress 首页变量,新加坡网站制作,武冈网站建设8.1 损失函数 ① Loss损失函数一方面计算实际输出和目标之间的差距。 ② Loss损失函数另一方面为我们更新输出提供一定的依据。 8.2 L1loss损失函数 ① L1loss数学公式如下图所示#xff0c;例子如下下图所示。 import torch from torch.nn import L1Loss inputs torch.tens…8.1 损失函数 ① Loss损失函数一方面计算实际输出和目标之间的差距。 ② Loss损失函数另一方面为我们更新输出提供一定的依据。 8.2 L1loss损失函数  ① L1loss数学公式如下图所示例子如下下图所示。 import torch from torch.nn import L1Loss inputs torch.tensor([1,2,3],dtypetorch.float32) targets torch.tensor([1,2,5],dtypetorch.float32) inputs torch.reshape(inputs,(1,1,1,3)) targets torch.reshape(targets,(1,1,1,3)) loss L1Loss() # 默认为 maen result loss(inputs,targets) print(result) 结果 tensor(0.6667)import torch from torch.nn import L1Loss inputs torch.tensor([1,2,3],dtypetorch.float32) targets torch.tensor([1,2,5],dtypetorch.float32) inputs torch.reshape(inputs,(1,1,1,3)) targets torch.reshape(targets,(1,1,1,3)) loss L1Loss(reductionsum) # 修改为sum三个值的差值然后取和 result loss(inputs,targets) print(result) 结果 tensor(2.) 8.3  MSE损失函数 ① MSE损失函数数学公式如下图所示。 import torch from torch.nn import L1Loss from torch import nn inputs torch.tensor([1,2,3],dtypetorch.float32) targets torch.tensor([1,2,5],dtypetorch.float32) inputs torch.reshape(inputs,(1,1,1,3)) targets torch.reshape(targets,(1,1,1,3)) loss_mse nn.MSELoss() result_mse loss_mse(inputs,targets) print(result_mse) 结果 tensor(1.3333) 8.4 交叉熵损失函数 ① 交叉熵损失函数数学公式如下图所示。 import torch from torch.nn import L1Loss from torch import nnx torch.tensor([0.1,0.2,0.3]) y torch.tensor([1]) x torch.reshape(x,(1,3)) # 1的 batch_size有三类 loss_cross nn.CrossEntropyLoss() result_cross loss_cross(x,y) print(result_cross) 结果 tensor(1.1019) 8.5 搭建神经网络 import torch import torchvision from torch import nn from torch.nn import Conv2d, MaxPool2d, Flatten, Linear, Sequential from torch.utils.data import DataLoader from torch.utils.tensorboard import SummaryWriterdataset torchvision.datasets.CIFAR10(./dataset,trainFalse,transformtorchvision.transforms.ToTensor(),downloadTrue) dataloader DataLoader(dataset, batch_size1,drop_lastTrue)class Tudui(nn.Module):def __init__(self):super(Tudui, self).__init__() self.model1 Sequential(Conv2d(3,32,5,padding2),MaxPool2d(2),Conv2d(32,32,5,padding2),MaxPool2d(2),Conv2d(32,64,5,padding2),MaxPool2d(2),Flatten(),Linear(1024,64),Linear(64,10))def forward(self, x):x self.model1(x)return xtudui Tudui() for data in dataloader:imgs, targets dataoutputs tudui(imgs)print(outputs)print(targets) 结果 8.6 数据集计算损失函数 import torch import torchvision from torch import nn from torch.nn import Conv2d, MaxPool2d, Flatten, Linear, Sequential from torch.utils.data import DataLoader from torch.utils.tensorboard import SummaryWriterdataset torchvision.datasets.CIFAR10(./dataset,trainFalse,transformtorchvision.transforms.ToTensor(),downloadTrue) dataloader DataLoader(dataset, batch_size64,drop_lastTrue)class Tudui(nn.Module):def __init__(self):super(Tudui, self).__init__() self.model1 Sequential(Conv2d(3,32,5,padding2),MaxPool2d(2),Conv2d(32,32,5,padding2),MaxPool2d(2),Conv2d(32,64,5,padding2),MaxPool2d(2),Flatten(),Linear(1024,64),Linear(64,10))def forward(self, x):x self.model1(x)return xloss nn.CrossEntropyLoss() # 交叉熵 tudui Tudui() for data in dataloader:imgs, targets dataoutputs tudui(imgs)result_loss loss(outputs, targets) # 计算实际输出与目标输出的差距print(result_loss) 结果 8.7 损失函数反向传播 ① 反向传播通过梯度来更新参数使得loss损失最小如下图所示。 import torch import torchvision from torch import nn from torch.nn import Conv2d, MaxPool2d, Flatten, Linear, Sequential from torch.utils.data import DataLoader from torch.utils.tensorboard import SummaryWriterdataset torchvision.datasets.CIFAR10(./dataset,trainFalse,transformtorchvision.transforms.ToTensor(),downloadTrue) dataloader DataLoader(dataset, batch_size64,drop_lastTrue)class Tudui(nn.Module):def __init__(self):super(Tudui, self).__init__() self.model1 Sequential(Conv2d(3,32,5,padding2),MaxPool2d(2),Conv2d(32,32,5,padding2),MaxPool2d(2),Conv2d(32,64,5,padding2),MaxPool2d(2),Flatten(),Linear(1024,64),Linear(64,10))def forward(self, x):x self.model1(x)return xloss nn.CrossEntropyLoss() # 交叉熵 tudui Tudui() for data in dataloader:imgs, targets dataoutputs tudui(imgs)result_loss loss(outputs, targets) # 计算实际输出与目标输出的差距result_loss.backward() # 计算出来的 loss 值有 backward 方法属性反向传播来计算每个节点的更新的参数。这里查看网络的属性 grad 梯度属性刚开始没有反向传播计算出来后才有后面优化器会利用梯度优化网络参数。 print(ok)
http://www.pierceye.com/news/111523/

相关文章:

  • 手机付费咨询网站建设网站正能量免费推广软件晚上
  • 网站群建设技术规范seo收索引擎优化
  • 西安网站托管维护百度首页广告
  • 洛龙区网站设计建设免费网页小游戏
  • 建设摩托125图片大全优化大师怎么删除学生
  • 郑州哪家公司给国外做网站闵行网站推广
  • 微网站 开发提供坪山网站建设
  • 狗狗和人做网站centos6搭建wordpress
  • 培训教育学校的网站建设方案vx小程序怎么制作
  • 泉州网站建设优化公司酒店网络营销推广方案
  • 重庆潼南网站建设公司电话crm客户关系管理平台
  • 怎么做可以访问网站连接加密东莞++网站建设
  • 企业网站的建设与流程数据分析师要学什么课程
  • 重庆营销型网站随做的好谷歌广告投放教程
  • 个人公众号做网站广州市车管所网站建设
  • 上海网站建设公司排名王也诸葛青cp
  • 常用的设计网站有哪些wordpress如何汉化主题
  • 深圳全网营销型网站免费做调查的网站有哪些
  • 设计素材网站知乎济南seo网站推广
  • 网站建设类岗位杭州国家电网 两学一做 网站
  • html静态网站开发自我介绍网站手机客户端开发教程
  • 营销型网站是什么样的桂林北站有核酸检测点吗
  • 网站未备案被阻断怎么做it培训机构哪个好一点
  • 重庆建设注册执业中心网站网络营销百度百科
  • app网站怎么下载个人备案做视频网站
  • 西宁建一个网站公司广东网站备案
  • 网站数据比较北京网站优化推广公司
  • 想做网站的客户在哪找美间在线设计平台
  • 网站设计规划的目的和要求营销外贸网站建设案例
  • 网站营销力一级a做爰片2017免费网站