当前位置: 首页 > news >正文

查找企业资料的网站wordpress生产app

查找企业资料的网站,wordpress生产app,俄文网站推广,开发系统 平台包问题 装包#xff1a;先用fastai出现单击没有跳转的情况#xff1a;安装pylance即可出现了用pip3 uninstall后pip3 list还有原来的numpy#xff0c;然后用conda uninstall之后就行了。pip, pip3, conda这几个来回用。 精度问题 打印tensor数组自动保留后四位#xff1a;…包问题 装包先用fastai出现单击没有跳转的情况安装pylance即可出现了用pip3 uninstall后pip3 list还有原来的numpy然后用conda uninstall之后就行了。pip, pip3, conda这几个来回用。 精度问题 打印tensor数组自动保留后四位 是精度缩减了吗其实是因为print访问的为_str_方法打印出来的小数只有四位用torch.set_printoptions(precision15)(设置小数精度显示即可显示原来数据。 visio图片转PDF overleaf插入去白边的Visio图 https://www.cnblogs.com/doubleyue/p/15684697.html 如果使用visio在保存为PDF图片时候点下选项把打钩的都不选就好了 保存latest和best model函数 def main(if valid_loss best_loss:is_best Truebest_epoch epochbest_prec min(valid_loss,best_loss)save_checkpoint({epoch: epoch 1,state_dict: model.state_dict(),best_prec: best_prec,optimizer: optimizer.state_dict(),}, is_best, fdir)def save_checkpoint(state, is_best, fdir):filepath os.path.join(fdir, checkpoint.pth)torch.save(state, filepath) # latestif is_best: # bestshutil.copyfile(filepath, os.path.join(fdir, model_best.pth.tar))extra_repr extra_repr 是 Python 中一种特殊的方法。在 PyTorch 中它通常用于自定义类的字符串表示形式特别是在打印对象时。当你使用 print 函数打印一个对象时Python 会调用该对象的 str 方法来生成可读的字符串表示形式。但是有时 str 方法可能不够详细或不够清晰这时可以定义 extra_repr 方法来提供额外的信息。当你使用 print 函数打印对象时Python 会检查是否定义了 extra_repr 方法如果定义了则会使用该方法返回的字符串来丰富对象的字符串表示形式。 return - str一定要return的是string 例子 class QuantReLU(nn.ReLU):def __init__(self, inplace: bool False):super(QuantReLU, self).__init__(inplace)def extra_repr(self) - str:return clipping threshold activation alpha: {:.3f}.format(self.act_alpha)当你print(QuantReLU)或者print的model里面含有他时会输出 Dummy( (block): Sequential( (0): Conv1d(12, 16, kernel_size(5,), stride(3,)) (1): QuantReLU(clipping threshold activation alpha: 7.832) ) ) 关于torch.size() 1.相加操作要掌握 import torchsize1 torch.Size([3, 4]) size2 torch.Size([5, 6, 7])# 将 size1 和 size2 进行相加操作 result_size size1 size2print(result_size) # 输出: torch.Size([3, 4, 5, 6, 7])2..shape返回的是torch.size()类型。 综合上述两点就可以写出以下代码 spike_train torch.zeros(membrane.shape[:1] torch.Size([self.T]) membrane.shape[1:],devicemembrane.device)state_dict model.state_dict() 返回的是模型的参数字典其中键是参数的名称值是参数的张量 state_dict.pop(k) 是 Python 字典dictionary的一个方法用于移除字典中键为 k 的项并返回该项的值。 for key in checkpoint:print(key, checkpoint[key].shape) for key in model.state_dict():print(key, model.state_dict()[key].size() or .shape)# 在 PyTorch 中.size() 和 .shape 是等价的两者都可以用于获取张量的形状信息。#conv1.weight torch.Size([6, 3, 5, 5]) #conv1.bias torch.Size([6])原来是用的relu.thresh 要改成relu.up keys list(checkpoint.keys()) for key in keys:if thresh in key:checkpoint[key[:-6] up] checkpoint.pop(key)state_dict.pop(k) 是 Python 字典dictionary的一个方法用于移除字典中键为 k 的项并返回该项的值。 由于在 Python 中字典的迭代器在遍历时不允许修改字典的结构所以必须用keys来作为迭代。 例子二 #Remove DataParallel wrapper module for name in list(checkpoint[state_dict].keys()):checkpoint[state_dict][name[7:]] checkpoint[state_dict].pop(name)torch.optim模块中的Optimizer优化器对象也存在一个state_dict对象此处的state_dict字典对象包含state和param_groups的字典对象 for var_name in optimizer.state_dict():print(var_name,\t,optimizer.state_dict()[var_name]) 输出 state {} param_groups [{lr: 0.001, momentum: 0.9, dampening: 0, weight_decay: 0, nesterov: False, params: [367949288, 367949432, 376459056, 381121808, 381121952, 381122024, 381121880, 381122168, 381122096, 381122312]}] 网络对不同网络层的操作 虽然表面上是说对网络以及网络层的操作但本质上是对象和索引对象属性的问题。 有一些内置函数用来索引到对象属性 内置函数: getattr(), setattr() value getattr(obj, attr) setattr(obj, attr, 42)e.g.: 用于遍历索引到对象属性。 for i in range(2, num_layers 1):getattr(model, layer str(i)).idem Truegetattr(snn, layer str(i)).idem True当没有sequential时 print(net.fc2) 有sequential时 print(net.fc[2]) 梯度 torch.clamp是有梯度的只有round函数需要单独考虑梯度即写backward function round的梯度是和clip一样的。他俩都是treats the quantization and de-quantization function as if it were identity function in the clipping range and constant function outside the clipping range. grad只要不低到0都是可以的,1e-4,1e-5也会更新。lr * grad alpha_new alpha_old - learning_rate * grad_alpha Bug 因为不懂optimizer原理犯的错误 optimizer一定要在model settled 好之后再调用因为有model.parameters()作为参数 这下对整个梯度的从开始到更新一轮应该比较了解了 final_model #需要梯度的用parameter或tensorrequire_grad optimizer optim.Adam(final_model.parameters(), lr0.0001) model.train() optimizer.zero_grad() #把optimizer存的grad清空 loss.backward() # 根据模型输出的损失值计算梯度。它会自动地沿着网络的参数计算梯度并将梯度存储在参数的.grad属性中 nn.utils.clip_grad_norm_(model.parameters(), max_norm10) # 会计算所有参数的梯度的范数并根据指定的max_norm进行裁剪 optimizer.step() # 这一步是利用优化器来更新模型的参数。优化器根据梯度和指定的优化算法如SGD、Adam等来更新模型参数。它会使用loss.backward()计算得到的梯度来更新模型参数通常使用学习率和其他超参数来控制更新的步长和方向。优化器在训练过程中会存储并使用梯度来更新模型参数。每次调用optimizer.step()时优化器会使用之前存储的梯度信息来更新模型参数。 0-d tensor 就是 scalar不能输出他的shape UserWarning: Detected call of lr_scheduler.step() before optimizer.step(). #scheduler.step() 不要放在这 train_acc, trian_loss train_one_epoch(args, model, dset, optimizer, data_loader, epoch) scheduler.step()Loss 分类问题就无脑CE比MSE要好。 nn.CrossEntropyLoss()nn.LogSoftmax()nn.NLLLoss(). optimizer 要手动将load下来的参数放到GPU上。 optimizer.load_state_dict(checkpoint[optimizer]) for state in optimizer.state.values():for k, v in state.items():if isinstance(v, torch.Tensor):state[k] v.cuda()许愿第一次论文
http://www.pierceye.com/news/37841/

相关文章:

  • 西宁网站建设君博解决铁岭公司做网站
  • 常州百度网站排名优化文档流程做网站
  • 本地服务类网站成本建设网站如何赚钱
  • 网站备案主体是上街区做网站
  • asp门户网站源码网站建设教程.
  • 商务网站建设实验报告网站建设域名和空间
  • 怎么样做国外推广网站湖南建筑信息网平台
  • 最新网站排名优化方法wordpress floating menu
  • 滕州市 网站建设公司网站开发工程师招聘
  • 昆山建设招标信息网站win7 iis默认网站设置
  • 有什么网站可以做六级题目嘛建设一个网站需要哪些员工
  • 私自建立网站网站判决书报考二级建造师证需要什么条件
  • 网站设计公司 龙岗2345系统导航
  • 徐州做网站最好的公司工程项目建设自学网站
  • 网站改版 百度影响it运维
  • 网站建设403网站怎么建设?
  • 在线做带字头像的网站网站备案是怎么回事
  • 如何推广手机网站公司网站cms
  • 内容类网站如何 流量厦门公司做网站
  • 百度帐号登录班级优化大师是干什么用的
  • 怎样接做网站的活wap手机网站分享代码
  • 集团网站 wordpress邯郸思勤网络科技有限公司
  • 国内做服装的网站有哪些网站模板备份
  • 自己电脑做服务器上传网站 需要备案吗Wordpress首页制作代码
  • 易县有没有z做网站的宜宾建设局网站
  • 南宁企业免费建站网站开发合同履约
  • 行业导航类网站模板263企业邮箱个人入口登录
  • 优化网站工具哪种网站名称容易通过备案审核
  • 沧州企业网站优化建设网站用新域名还是老域名
  • 带空间二字的韩国视频网站网站要学什么