当前位置: 首页 > news >正文

网站推广与seo的区别江苏省建设局报考网站

网站推广与seo的区别,江苏省建设局报考网站,濮阳做网站推广的公司,wordpress做微博目录 torch.nn子模块Sparse Layers详解 nn.Embedding 用途 主要参数 注意事项 使用示例 从预训练权重创建嵌入 nn.EmbeddingBag 功能和用途 主要参数 使用示例 从预训练权重创建 总结 torch.nn子模块Sparse Layers详解 nn.Embedding torch.nn.Embedding 是 PyTo…目录 torch.nn子模块Sparse Layers详解 nn.Embedding 用途 主要参数 注意事项 使用示例 从预训练权重创建嵌入 nn.EmbeddingBag 功能和用途 主要参数 使用示例 从预训练权重创建 总结 torch.nn子模块Sparse Layers详解 nn.Embedding torch.nn.Embedding 是 PyTorch 中一个重要的模块用于创建一个简单的查找表它存储固定字典和大小的嵌入(embeddings)。这个模块通常用于存储单词嵌入并使用索引检索它们。接下来我将详细解释 Embedding 模块的用途、用法、特点以及如何使用它。 用途 单词嵌入在自然语言处理中Embedding 模块用于将单词或其他类型的标记映射到一个高维空间其中相似的单词在嵌入空间中彼此靠近。特征表示在非自然语言处理任务中嵌入可以用于任何类型的分类特征的密集表示。 主要参数 num_embeddingsint嵌入字典的大小。embedding_dimint每个嵌入向量的大小。padding_idxint可选如果指定padding_idx 处的嵌入不会在训练中更新。max_normfloat可选如果指定将重新归一化超过此范数的嵌入向量。norm_typefloat可选用于max_norm选项的p-范数的p值默认为2。scale_grad_by_freqbool可选如果为True将按单词在批次中的频率的倒数来缩放梯度。sparsebool可选如果为True权重矩阵的梯度将是一个稀疏张量。 注意事项 当使用max_norm参数时Embedding的前向方法会就地修改权重张量。如果需要对Embedding.weight进行梯度计算则在调用前向方法前需要在max_norm不为None时克隆它。仅有少数优化器支持稀疏梯度。 使用示例 import torch import torch.nn as nn# 创建一个包含10个大小为3的嵌入的Embedding模块 embedding nn.Embedding(10, 3)# 一个包含4个索引的2个样本的批次 input torch.LongTensor([[1, 2, 4, 5], [4, 3, 2, 9]])# 通过Embedding模块获取嵌入 output embedding(input)此示例创建了一个嵌入字典大小为10、每个嵌入维度为3的 Embedding 模块。然后它接受一个包含索引的输入张量并返回对应的嵌入向量。 从预训练权重创建嵌入 还可以使用from_pretrained类方法从预先训练的权重创建Embedding实例 # 预训练的权重 weight torch.FloatTensor([[1, 2.3, 3], [4, 5.1, 6.3]])# 从预训练权重创建Embedding embedding nn.Embedding.from_pretrained(weight)# 获取索引1的嵌入 input torch.LongTensor([1]) output embedding(input)在这个示例中Embedding 模块是从一个给定的预训练权重张量创建的。这种方法在迁移学习或使用预先训练好的嵌入时非常有用。 nn.EmbeddingBag torch.nn.EmbeddingBag 是 PyTorch 中一个高效的模块用于计算“bags”即序列或集合的嵌入的总和或平均值而无需实例化中间的嵌入。这个模块特别适用于处理具有不同长度的序列如在自然语言处理任务中处理不同长度的句子或文档。下面我将详细介绍 EmbeddingBag 的功能、用法以及特点。 功能和用途 高效计算EmbeddingBag 直接计算整个包的总和或平均值比逐个嵌入后再求和或取平均更加高效。支持不同聚合方式可以选择 sum, mean 或 max 模式来聚合每个包中的嵌入。支持加权聚合EmbeddingBag 还支持为每个样本指定权重在 sum 模式下进行加权求和。 主要参数 num_embeddingsint嵌入字典的大小。embedding_dimint每个嵌入向量的大小。max_normfloat可选如果给定将重新规范化超过此范数的嵌入向量。modestr可选聚合模式可以是 sum、mean 或 max。sparsebool可选如果为True权重矩阵的梯度将是一个稀疏张量。padding_idxint可选如果指定padding_idx 处的嵌入将不会在训练中更新。 使用示例 import torch import torch.nn as nn# 创建一个包含10个大小为3的嵌入的EmbeddingBag模块 embedding_bag nn.EmbeddingBag(10, 3, modemean)# 一个示例包含4个索引的输入 input torch.tensor([1, 2, 4, 5, 4, 3, 2, 9], dtypetorch.long)# 指定每个包的开始索引 offsets torch.tensor([0, 4], dtypetorch.long)# 通过EmbeddingBag模块获取嵌入 output embedding_bag(input, offsets)在这个示例中创建了一个嵌入字典大小为10、每个嵌入维度为3的 EmbeddingBag 模块并设置为 mean 模式。输入是一个索引序列offsets 指定了每个包的开始位置。EmbeddingBag 会计算每个包的平均嵌入向量。 从预训练权重创建 EmbeddingBag 也可以从预训练的权重创建 # 预训练的权重 weight torch.FloatTensor([[1, 2.3, 3], [4, 5.1, 6.3]])# 从预训练权重创建EmbeddingBag embedding_bag nn.EmbeddingBag.from_pretrained(weight)# 获取索引1的嵌入 input torch.LongTensor([[1, 0]]) output embedding_bag(input)这种方法在需要使用预先训练好的嵌入或在迁移学习中非常有用。EmbeddingBag 通过高效地处理不同长度的序列数据在自然语言处理等领域中发挥着重要作用。 总结 本篇博客探讨了 PyTorch 中的 nn.Embedding 和 nn.EmbeddingBag 两个关键模块它们是处理和表示离散数据特征的强大工具。nn.Embedding 提供了一种有效的方式来将单词或其他类型的标记映射到高维空间中而 nn.EmbeddingBag 以其独特的方式处理变长序列通过聚合嵌入来提高计算效率。这两个模块不仅在自然语言处理中发挥关键作用也适用于其他需要稠密特征表示的任务。此外这些模块支持从预训练权重初始化使其在迁移学习和复杂模型训练中极为重要。综上所述nn.Embedding 和 nn.EmbeddingBag 是理解和应用 PyTorch 中嵌入层的基础。
http://www.pierceye.com/news/407189/

相关文章:

  • 做国外产品描述的网站门户网站 建设 如何写
  • 建筑网站资料哪些购物网站做的比较简洁有品质
  • 永州做网站网站运营与管理实验报告
  • 江门专业网站建设系统黄冈公司网站建设平台
  • 男女做羞羞事的网站衡器行业网站建设模板
  • 怎么看网站空间大小wordpress悬浮代码
  • 淮安市建设监理协会网站家装网站做
  • 深圳专业营销网站建站网站插件
  • 企业网站建设专业精准丨 鸣远科技网站建设会议验收
  • 网站建设在哪里做比较好广东网站设计公司
  • 什么叫域名访问网站六安网络科技有限公司
  • 江苏省城乡与建设厅网站首页文山网站建设兼职
  • 做网站用什么系统好二手商标网
  • 福州网站建设公司哪个好做芯片代理哪个网站推广
  • 怎么制作钓鱼网站链接乐山网站营销推广哪家公司好
  • 一键网站制作定制网站型网站开发
  • 营销型网站开发流程包括辽宁建设工程信息网新网址
  • 宁德企业网站建设网站开发成本包括
  • 茂名建设中专学校网站如何做国际贸易网站
  • 自己办网站网站开发多久
  • wordpress 图表插件网站seo找准隐迅推
  • 欧美网站设计网站制作基础教程
  • wordpress显示icp备案号手机关键词排名优化
  • 网站建设与管理属于什么部门自助建站 知乎
  • 成都网站开发哪个好常州建网站
  • 陕西住房与城乡建设厅网站从化市营销型网站建设
  • 如何在网站上做推广自己做网站的图片
  • 珠海模板网站建设wordpress 底部工具栏
  • 网站建设的业务流程图招聘网站上找在家做
  • 网站设计的工具盱眙在仕德伟做网站的有几家