当前位置: 首页 > news >正文

做网站优化的价格wordpress被恶意登录

做网站优化的价格,wordpress被恶意登录,百度seo点击排名优化,百度搜索排名服务python-pytorch使用日志 1. optimizer.zero_grad()和model.zero_grad()的区别2. cbow和skip-gram的训练数据格式3. 获取cbow和skip-gram训练后的中文词向量4. 获取到词向量后可以做什么5. 余弦相似度结果的解释 1. optimizer.zero_grad()和model.zero_grad()的区别 都是清空模… python-pytorch使用日志 1. optimizer.zero_grad()和model.zero_grad()的区别2. cbow和skip-gram的训练数据格式3. 获取cbow和skip-gram训练后的中文词向量4. 获取到词向量后可以做什么5. 余弦相似度结果的解释 1. optimizer.zero_grad()和model.zero_grad()的区别 都是清空模型的梯度参数如果模型中有多个model训练时建议使用model.zero_grad()如果只有一个模型训练optimizer.zero_grad()和model.zero_grad()意义都一样 2. cbow和skip-gram的训练数据格式 cbow格式 data1 [] for i in range(2, len(raw_text) - 2):context [raw_text[i - 2], raw_text[i - 1],raw_text[i 1], raw_text[i 2]]target raw_text[i]data1.append((context, target))cbow最终格式 [([‘从零开始’, ‘Zookeeper’, ‘高’, ‘可靠’], ‘开源’), ([‘Zookeeper’, ‘开源’, ‘可靠’, ‘分布式’], ‘高’), ([‘开源’, ‘高’, ‘分布式’, ‘一致性’], ‘可靠’), ([‘高’, ‘可靠’, ‘一致性’, ‘协调’], ‘分布式’), ([‘可靠’, ‘分布式’, ‘协调’, ‘服务’], ‘一致性’)] skip-gram格式 data3 [] window_size12 for i,word in enumerate(raw_text):target raw_text[i]contextsraw_text[max(i - window_size1, 0): min(i window_size1 1, len(raw_text))]for context in contexts:if target!context:data3.append((context,target)) data3,len(data3)或者类似于def create_skipgram_dataset(sentences, window_size4):data [] # 初始化数据for sentence in sentences: # 遍历句子sentence sentence.split() # 将句子分割成单词列表for idx, word in enumerate(sentence): # 遍历单词及其索引# 获取相邻的单词将当前单词前后各 N 个单词作为相邻单词for neighbor in sentence[max(idx - window_size, 0): min(idx window_size 1, len(sentence))]:if neighbor ! word: # 排除当前单词本身# 将相邻单词与当前单词作为一组训练数据data.append((neighbor, word))return dataskip-gram最终格式 ([(‘Zookeeper’, ‘从零开始’), (‘开源’, ‘从零开始’), (‘从零开始’, ‘Zookeeper’), (‘开源’, ‘Zookeeper’), (‘高’, ‘Zookeeper’), (‘从零开始’, ‘开源’), (‘Zookeeper’, ‘开源’), (‘高’, ‘开源’), (‘可靠’, ‘开源’), (‘Zookeeper’, ‘高’), (‘开源’, ‘高’), (‘可靠’, ‘高’), (‘分布式’, ‘高’), (‘开源’, ‘可靠’)] 3. 获取cbow和skip-gram训练后的中文词向量 前提是需要使用中文去训练搭建的模型可以参考 https://blog.csdn.net/Metal1/article/details/132886936 https://blog.csdn.net/L_goodboy/article/details/136347947 如果使用pytorch的Embeding的模型获取的就是embeding层 class SkipGramModel(nn.Module):def __init__(self, vocab_size, embedding_dim):super(SkipGramModel, self).__init__()self.embedding nn.Embedding(vocab_size, embedding_dim)self.linear nn.Linear(embedding_dim, vocab_size)def forward(self, center_word):embedded self.embedding(center_word)output self.linear(embedded)输出每个词的嵌入向量 for word, idx in word_to_idx.items(): print(f{word}: {model.embedding.weight[:,idx].detach().numpy()})如果使用原生的写的模型获取的就是第一层的线性层 import torch.nn as nn # 导入 neural network class SkipGram(nn.Module):def __init__(self, voc_size, embedding_size):super(SkipGram, self).__init__()# 从词汇表大小到嵌入层大小维度的线性层权重矩阵self.input_to_hidden nn.Linear(voc_size, embedding_size, biasFalse) # 从嵌入层大小维度到词汇表大小的线性层权重矩阵self.hidden_to_output nn.Linear(embedding_size, voc_size, biasFalse) def forward(self, X): # 前向传播的方式X 形状为 (batch_size, voc_size) # 通过隐藏层hidden 形状为 (batch_size, embedding_size)hidden self.input_to_hidden(X) # 通过输出层output_layer 形状为 (batch_size, voc_size)output self.hidden_to_output(hidden) return output 输出每个词的嵌入向量 for word, idx in word_to_idx.items(): print(f{word}: {model.input_to_hidden .weight[:,idx].detach().numpy()})4. 获取到词向量后可以做什么 “具有相同上下文的词语包含相似的语义”使得语义相近的词在映射到欧式空间后中具有较高的余弦相似度。 语义相似性度量词向量能够将语义上相近的词映射到向量空间中相近的位置。因此可以通过计算两个词向量的余弦相似度或欧氏距离来度量它们之间的语义相似性。这在诸如词义消歧、同义词替换等任务中非常有用。 文本分类与情感分析在文本分类任务如新闻分类、电影评论情感分析中词向量可以作为特征输入到分类器中。通过将文本中的每个词表示为向量并聚合这些向量例如通过取平均值或求和可以得到整个文本的向量表示进而用于分类或情感分析。 命名实体识别在命名实体识别NER任务中词向量可以帮助模型识别文本中的特定类型实体如人名、地名、组织机构名等。通过将词向量与序列标注模型如BiLSTM-CRF结合使用可以提高NER的性能。 问答系统在问答系统中词向量可以用于表示问题和答案的语义信息。通过计算问题和答案的词向量之间的相似度可以找出与问题最匹配的答案。 机器翻译在机器翻译任务中词向量可以用于捕捉源语言和目标语言之间的语义对应关系。通过训练跨语言的词向量表示如跨语言词嵌入可以实现更准确的翻译结果。 文本生成在文本生成任务如文本摘要、对话生成等中词向量可以作为生成模型的输入或隐层表示。通过利用词向量中的语义信息模型可以生成更自然、更相关的文本内容。 知识图谱与实体链接在知识图谱构建和实体链接任务中词向量可以用于表示实体和概念之间的语义关系。通过将实体和概念映射到向量空间可以方便地进行实体识别和关系推理。 5. 余弦相似度结果的解释 余弦相似度的结果范围通常在-1到1之间这个范围可以用来解释两个向量之间的相似程度 值为1当余弦相似度为1时表示两个向量完全重合即它们指向的方向完全相同这意味着两个向量代表的文本或概念在语义上几乎完全相同。 值为-1当余弦相似度为-1时表示两个向量完全相反即它们指向的方向完全相反。在文本相似度的上下文中这通常意味着两个文本在语义上非常对立或相反。 值为0当余弦相似度为0时表示两个向量正交即它们之间的夹角为90度。在文本相似度的语境中这通常意味着两个文本在语义上没有直接的联系或相似性。 值在0到1之间当余弦相似度在0和1之间时表示两个向量之间的夹角小于90度但不完全重合。数值越接近1表示两个向量在方向上的相似性越高即两个文本在语义上的相似性越高。 值在-1到0之间当余弦相似度在-1和0之间时表示两个向量之间的夹角大于90度但小于180度。数值越接近-1表示两个向量在方向上的对立性越高即两个文本在语义上的对立性越高 如 其中trained_vector_dic是通过模型获取的词向量字典 余弦相似度 trained_vector_dic{} for word, idx in word_to_idx.items(): # 输出每个词的嵌入向量trained_vector_dic[word]model.embedding.weight[idx]import torch import torch.nn.functional as F cosine_similarity1 F.cosine_similarity(torch.tensor(trained_vector_dic[保持数据].unsqueeze(0)), torch.tensor(trained_vector_dic[打印信息]).unsqueeze(0)) print(cosine_similarity1)结果如下表名不相似 tensor([-0.0029])点积相似度 dot_product torch.dot(torch.tensor(trained_vector_dic[保持数据]), torch.tensor(trained_vector_dic[打印信息])) x_length torch.norm(torch.tensor(trained_vector_dic[保持数据])) y_length torch.norm(torch.tensor(trained_vector_dic[打印信息])) similarity dot_product / (x_length * y_length) print(similarity)结果如下表名不相似与余弦结果一致 tensor([-0.0029])
http://www.pierceye.com/news/145954/

相关文章:

  • 青岛科技街网站建设安徽 网站开发
  • 黑糖不苦建设的网站wordpress获取文章图片不显示
  • 美食网站建设的功能免费做简历的网站
  • 网站建设公司谁管手机如何创建网站
  • 可以自己做网站优化吗最好用的wordpress主题
  • 瓜子二手车网站开发智慧团建注册登记入口
  • 青岛网站开发建设安阳市商祺网络有限责任公司
  • 自己怎么做装修网站网站建设设计岗位职责
  • php语言 网站建设投资2 3万小生意
  • 全美网站开发微转app是用网站做的吗
  • 禹州 什么团购网站做的好广州网站建设程序开发
  • 成都市微信网站建设公司专业app开发
  • 郑州网站建设hndream神木网站设计公司
  • 关于网站集约化建设的讲话抓取网站访客qq号码
  • 南昌住房城市建设支行官方网站海洋网络提供网站建设
  • 网站外链建设的八大基本准则做网站卖得出去吗
  • 网站建设不完整 审核天元建设集团有限公司一公司尤作岭
  • 论坛程序做导航网站专做轮胎的网站
  • 网站开发软件解决方案个人网站可以做资讯吗
  • 网站右击无效是怎么做的牛商网建设的食品网站
  • 新北网站建设全网营销网站建设
  • 网站建设与管理 教学设计自己的身份已经网站备案了
  • 长沙网站列表网站开发实例及研究
  • 东莞阳光网官方网站吉林百度查关键词排名
  • 网站开发投标书范本目录左旗网站建设
  • 一流的五屏网站建设wordpress 移动端 接口
  • 服装行业网站建设兴宁网站设计
  • 网站两边的悬浮框怎么做wordpress 非插件代码高亮
  • 网站安全管理制度建设下载网站建设公司哪家强
  • 网络直播网站开发长春市城乡建设部网站