当前位置: 首页 > news >正文

中国建设银行东莞市网站在网站设计中 网页框架设计

中国建设银行东莞市网站,在网站设计中 网页框架设计,seo黑帽技术有哪些,邢台163信息港计数方法应用于PTB数据集PTB数据集ptb.py使用ptb.py计数方法应用于PTB数据集PTB数据集 内容如下#xff1a; 一行保存一个句子#xff1b;将稀有单词替换成特殊字符 unk #xff1b;将具体的数字替换 成“N” we re talking about years ago before anyone hear… 计数方法应用于PTB数据集PTB数据集ptb.py使用ptb.py计数方法应用于PTB数据集PTB数据集 内容如下 一行保存一个句子将稀有单词替换成特殊字符 unk 将具体的数字替换 成“N” we re talking about years ago before anyone heard of asbestos having any questionable properties there is no asbestos in our products now neither unk nor the researchers who studied the workers were aware of any research on smokers of the kent cigarettes we have no useful information on whether users are at risk said james a. unk of boston s unk cancer institute dr. unk led a team of researchers from the national cancer institute and the medical schools of harvard university and boston university ptb.py 使用PTB数据集 由下面这句话可知用PTB数据集时候是把所有句子首尾连接了。 words open(file_path).read().replace(\n, eos).strip().split()ptb.py起到了下载PTB数据集把数据集存到文件夹某个位置然后对数据集进行提取的功能提取出corpus, word_to_id, id_to_word。 import sys import os sys.path.append(..) try:import urllib.request except ImportError:raise ImportError(Use Python3!) import pickle import numpy as npurl_base https://raw.githubusercontent.com/tomsercu/lstm/master/data/ key_file {train:ptb.train.txt,test:ptb.test.txt,valid:ptb.valid.txt } save_file {train:ptb.train.npy,test:ptb.test.npy,valid:ptb.valid.npy } vocab_file ptb.vocab.pkldataset_dir os.path.dirname(os.path.abspath(__file__))def _download(file_name):file_path dataset_dir / file_nameif os.path.exists(file_path):returnprint(Downloading file_name ... )try:urllib.request.urlretrieve(url_base file_name, file_path)except urllib.error.URLError:import sslssl._create_default_https_context ssl._create_unverified_contexturllib.request.urlretrieve(url_base file_name, file_path)print(Done)def load_vocab():vocab_path dataset_dir / vocab_fileif os.path.exists(vocab_path):with open(vocab_path, rb) as f:word_to_id, id_to_word pickle.load(f)return word_to_id, id_to_wordword_to_id {}id_to_word {}data_type trainfile_name key_file[data_type]file_path dataset_dir / file_name_download(file_name)words open(file_path).read().replace(\n, eos).strip().split()for i, word in enumerate(words):if word not in word_to_id:tmp_id len(word_to_id)word_to_id[word] tmp_idid_to_word[tmp_id] wordwith open(vocab_path, wb) as f:pickle.dump((word_to_id, id_to_word), f)return word_to_id, id_to_worddef load_data(data_typetrain)::param data_type: 数据的种类train or test or valid (val):return:if data_type val: data_type validsave_path dataset_dir / save_file[data_type]word_to_id, id_to_word load_vocab()if os.path.exists(save_path):corpus np.load(save_path)return corpus, word_to_id, id_to_wordfile_name key_file[data_type]file_path dataset_dir / file_name_download(file_name)words open(file_path).read().replace(\n, eos).strip().split()corpus np.array([word_to_id[w] for w in words])np.save(save_path, corpus)return corpus, word_to_id, id_to_wordif __name__ __main__:for data_type in (train, val, test):load_data(data_type) 使用ptb.py corpus保存了单词ID列表id_to_word 是将单词ID转化为单词的字典word_to_id 是将单词转化为单词ID的字典。 使用ptb.load_data()加载数据。里面的参数 ‘train’、‘test’、‘valid’ 分别对应训练用数据、测试用数据、验证用数据。 import sys sys.path.append(..) from dataset import ptbcorpus, word_to_id, id_to_word ptb.load_data(train)print(corpus size:, len(corpus)) print(corpus[:30]:, corpus[:30]) print() print(id_to_word[0]:, id_to_word[0]) print(id_to_word[1]:, id_to_word[1]) print(id_to_word[2]:, id_to_word[2]) print() print(word_to_id[car]:, word_to_id[car]) print(word_to_id[happy]:, word_to_id[happy]) print(word_to_id[lexus]:, word_to_id[lexus]) 结果 corpus size: 929589 corpus[:30]: [ 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 2324 25 26 27 28 29]id_to_word[0]: aer id_to_word[1]: banknote id_to_word[2]: berlitzword_to_id[car]: 3856 word_to_id[happy]: 4428 word_to_id[lexus]: 7426Process finished with exit code 0 计数方法应用于PTB数据集 其实和不用PTB数据集的区别就在于这句话。 corpus, word_to_id, id_to_word ptb.load_data(train)下面这句话起降维的效果 word_vecs U[:, :wordvec_size]整个代码其实耗时最大的是在下面这个函数上 W ppmi(C, verboseTrue)完整代码 import sys sys.path.append(..) import numpy as np from common.util import most_similar, create_co_matrix, ppmi from dataset import ptbwindow_size 2 wordvec_size 100corpus, word_to_id, id_to_word ptb.load_data(train) vocab_size len(word_to_id) print(counting co-occurrence ...) C create_co_matrix(corpus, vocab_size, window_size) print(calculating PPMI ...) W ppmi(C, verboseTrue)print(calculating SVD ...) #try:# truncated SVD (fast!) print(ok) from sklearn.utils.extmath import randomized_svd U, S, V randomized_svd(W, n_componentswordvec_size, n_iter5,random_stateNone) #except ImportError:# SVD (slow)# U, S, V np.linalg.svd(W)word_vecs U[:, :wordvec_size]querys [you, year, car, toyota] for query in querys:most_similar(query, word_to_id, id_to_word, word_vecs, top5) 下面这个是用普通的np.linalg.svd(W)做出的结果。 [query] youi: 0.7016294002532959we: 0.6388039588928223anybody: 0.5868048667907715do: 0.5612815618515015ll: 0.512611985206604[query] yearmonth: 0.6957005262374878quarter: 0.691483736038208earlier: 0.6661213636398315last: 0.6327787041664124third: 0.6230476498603821[query] carluxury: 0.6767407655715942auto: 0.6339930295944214vehicle: 0.5972712635993958cars: 0.5888376235961914truck: 0.5693157315254211[query] toyotamotor: 0.7481387853622437nissan: 0.7147319316864014motors: 0.6946366429328918lexus: 0.6553674340248108honda: 0.6343469619750977 下面结果是用了sklearn模块里面的randomized_svd方法使用了随机数的 Truncated SVD仅对奇异值较大的部分进行计算计算速度比常规的 SVD 快。 calculating SVD ... ok[query] youi: 0.6678948998451233we: 0.6213737726211548something: 0.560122013092041do: 0.5594725608825684someone: 0.5490139126777649[query] yearmonth: 0.6444296836853027quarter: 0.6192560791969299next: 0.6152222156524658fiscal: 0.5712860226631165earlier: 0.5641934871673584[query] carluxury: 0.6612467765808105auto: 0.6166062355041504corsica: 0.5270425081253052cars: 0.5142025947570801truck: 0.5030257105827332[query] toyotamotor: 0.7747215628623962motors: 0.6871038675308228lexus: 0.6786072850227356nissan: 0.6618651151657104mazda: 0.6237337589263916Process finished with exit code 0
http://www.pierceye.com/news/159504/

相关文章:

  • 济南优化seo网站建设微信公众号?
  • 武夷山网站推广三星网上商城下载
  • wap网站开发文案素材网站
  • 做网站需要用什么系统昆山张浦做网站
  • 钟祥建设局网站网页样式与布局
  • j建设银行信用卡网站天河外贸网站建设
  • 石家庄网站建设招商wordpress漫画主题
  • 河南省建设厅网站查询佛山著名网站建设公司
  • 山东搜点网站建设哪家公司做网站最好
  • 云购物网站建设wordpress离线编辑
  • 有没有网站开发团队郑州网站制作电话
  • 网站怎么做登陆免费虚拟机
  • 中国移动网站备案管理系统不能用科普网站建设的支持力度
  • 谁教我做啊谁会做网站啊企业网站模板seo
  • 自己建立一个网站需要什么wordpress 平衡插件
  • 邯郸手机建站价格青海网站开发 建设
  • 苏州 手机网站免费个人简历模板电子版可填写
  • 永州内部网站建设公司wordpress 模版开发
  • 云建站优势门户网站如何建设方案
  • 网站建设收费标准不一湖州网站开发公司
  • asp制作网站青岛建网站公司
  • 人人商城程序做的网站打不开百度网盘客户端下载
  • 医疗器械注册证查询网站优化推广服务
  • 网站制作网页做简单的网站首页
  • 怎样做网站上的语种链接泰安网络犯罪案件
  • soap公司网站建设国家游戏网站
  • 网站可以用什么做安阳区号是什么
  • 网站建设实战李静如何建设网站的能力
  • 威海 网站开发做家具的网站有哪些
  • 宁波网站建设公司怎么报价网页打开速度慢的解决方法