当前位置: 首页 > news >正文

成都双流网站建设网站信息资源建设包括哪些

成都双流网站建设,网站信息资源建设包括哪些,磁力搜索神器,营销策划主题以下以《红楼梦》为例进行设计。在制作词云图及统计之前#xff0c;需要下载python的几个库#xff0c;wordcloud、jieba以及imageio等#xff0c;我的操作系统为Windows10#xff0c;IDE环境为idle#xff0c;下载方式就直接搜索cmd#xff0c;打开命令提示符窗口#…以下以《红楼梦》为例进行设计。在制作词云图及统计之前需要下载python的几个库wordcloud、jieba以及imageio等我的操作系统为Windows10IDE环境为idle下载方式就直接搜索cmd打开命令提示符窗口输入pip install wordcloud等库进行下载即可。像这样就下载成功了要对名著进行开展必不可少的就是这些名著的电子书安装好库就要进行对电子书的下载这个链接可以下载《红楼梦》的txt电子书红楼梦txt下载|红楼梦txt全集下载-红楼梦百度云下载-TXT下载站​www.txtxzz.com这是我用到的背景图以下为我具体的操作代码具体的注释我都加在了里面import jieba import wordcloud from imageio import imread# 1、进行词云分析即词云图的制作 def ciyun():mask imread(林黛玉.png) # 打开词云背景图tf open(红楼梦.txt,rt,encoding utf-8) # 打开《林黛玉》txt文档txt for line in tf.readlines():for j in ,.“”《》--:line.replace(,j)txt linejieba_cut jieba.lcut(txt) # 利用jieba对文档进行全文分词c wordcloud.WordCloud(width 1200,font_path msyh.ttc,height 800,background_colorwhite,maskmask) # 进行背景、画布大小、颜色等处理c.generate( .join(jieba_cut))c.to_file(红楼梦.png)tf.close() ciyun() # 2、出场统计的制作 excludes {什么,一个,我们,那里,你们,如今,说道,知道,起来,姑娘,这里,出来,他们,众人,自己,一面,只见,怎么,奶奶,两个,没有,不是,不知,这个,听见,这样,进来,咱们,告诉,就是,东西,袭人,回来,只是,大家,只得,老爷,丫头,这些,不敢,出去,所以,不过,的话,不好,姐姐,探春,鸳鸯,一时,不能,过来,心里,如此,今日,银子,几个,答应,二人,还有,只管,这么,说话,一回,那边,这话,外头,打发,自然,今儿,罢了,屋里,那些,听说,小丫头,不用,如何}# 将这些会干扰的词汇列出并且删除以免影响最后的结果 txt open(红楼梦.txt,r,encodingutf-8).read() # 打开《红楼梦》txt电子书 words jieba.lcut(txt) # 利用jieba进行全文分词 paixv {} for word in words:if len(word) 1: # 如果分割的长度是一可能是语气词之类的所以删除continueelse:paixv[word] paixv.get(word,0) 1for word in excludes: del(paixv[word]) # 如果列出的干扰词汇在分完词后的所有词汇中那么删除items list(paixv.items()) # 将字典转换为列表 items.sort(keylambda x:x[1],reverse True) # 将列表进行降序排列for i in range(20): # 打印出前20个出场最多的人物名word,count items[i]print({0:10}{1:5}.format(word,count))# 3、字频统计的制作 import os import codecs import jieba import pandas as pd from wordcloud import WordCloud from scipy.misc import imread import matplotlib.pyplot as plt os.chdir(/Users/Zhaohaibo/Desktop)class Hlm(object): def Zipin(self, readdoc, writedoc): # readdoc:要读取的文件名writedoc:要写入的文件名word_lst []word_dict {} exclude_str 。、【】《》-*—“”… with open(readdoc,r) as fileIn ,open(writedoc,w) as fileOut:# 添加每一个字到列表中for line in fileIn:for char in line:word_lst.append(char)# 用字典统计每个字出现的个数 for char in word_lst:if char not in exclude_str:if char.strip() not in word_dict: # strip去除各种空白word_dict[char] 1else :word_dict[char] 1# 排序x[1]是按字频排序x[0]则是按字排序lstWords sorted(word_dict.items(), keylambda x:x[1], reverseTrue) # 输出结果 (前100)print (字符t字频)print ()for e in lstWords[:100]:print (%st%d % e)fileOut.write(%s, %dn % e)# 词频表DataFrame格式def Cipin(self, doc): # doc要读取的文件名wdict {}f open(doc,r)for line in f.readlines():words jieba.cut(line)for w in words:if(w not in wdict):wdict[w] 1else:wdict[w] 1 # 导入停用词表stop pd.read_csv(stoplist.txt, encoding utf-8, sep zhao, header None,engine python) # sep:分割符号需要用一个确定不会出现在停用词表中的单词stop.columns [word] stop [ ] list(stop.word) # python读取时不会读取到空格。但空格依旧需要去除。所以加上空格 读取后的stop是series的结构需要转成列表for i in range(len(stop)):if(stop[i] in wdict):wdict.pop(stop[i])ind list(wdict.keys())val list(wdict.values())ind pd.Series(ind)val pd.Series(val)data pd.DataFrame()data[词] inddata[词频] valreturn data最后的结果截图为词云图出场统计字频统计有点多就只截一部分以上便为《红楼梦》的词云分析及字频统计、出场统计。主要是为了记录一下我昨天的课程设计作业代码有借鉴。
http://www.pierceye.com/news/840518/

相关文章:

  • 免费做个人网站产品推广方案策划书
  • 水利工程建设监理网站做餐厅logo什么网站素材多
  • 影楼行业网站做网站怎么宣传
  • 云做网站南宁网站建设索q.479185700
  • 运城做网站要多少钱天山网站
  • php网站端口企业网站建设及运营现状分析
  • 北京做网站价格如何知道一个网站是用什么做的
  • 海外域名网站国外做多媒体展览的网站
  • 阿里 网站建设方案书 模板wordpress影视模版
  • 广西网站建设工具网站推广方法主要有哪些
  • 源码购买网站郑州新一网站建设
  • 大学生网站设计论文范文某集团网站建设规划书
  • 温州哪里有网站建设深圳关键词首页排名
  • 做网站用什么面板好网站建设网站公司
  • 寻求网站建设技术网页升级访问永久你懂的
  • 做网站的公司有多少家无后台基础怎么建设网站
  • 在公司做网站是什么职位有链接的网站怎么做
  • 手机网站开发前台架构专业群建设网站
  • 做网站设计怎么样网站ui怎么做的
  • 企业网站用织梦好吗ui培训的课程都有哪些
  • 临沂专业网站建设公司哪家好做网站的照片要多大像素
  • 山东滕州做网站技术电话wordpress网页登陆
  • 做公司网站的费用flash交互网站页面切换制作
  • 网络推广渠道有哪些百度手机seo
  • 重庆专业网站建设公司哪家好seo的中文意思是什么
  • 做品牌折扣微信推广的网站网站换主机换域名
  • 营销型网站有哪些建设流程怎样制作免费的网站
  • 天津建设工程计价网站手工加工网
  • 温州做美食网站网站建设的方案模板下载
  • 如何快速网站备案以用户为中心 建设学校网站