当前位置: 首页 > news >正文

网站设计错误wordpress 中文站

网站设计错误,wordpress 中文站,襄阳seo研究中心,线上软装设计师theme: orange 要分析一篇文章的高频词和关键词#xff0c;可以使用 Python 中的 nltk 库和 collections 库或者jieba库来实现#xff0c;本篇文章介绍基于两种库分别实现分析内容中的高频词和关键词。 nltk 和 collections 库 首先#xff0c;需要安装 nltk 库和 collectio… theme: orange 要分析一篇文章的高频词和关键词可以使用 Python 中的 nltk 库和 collections 库或者jieba库来实现本篇文章介绍基于两种库分别实现分析内容中的高频词和关键词。 nltk 和 collections 库 首先需要安装 nltk 库和 collections 库。可以使用以下命令来安装 shell pip install nltk pip install collections 接下来需要下载 nltk 库中的 stopwords 和 punkt 数据。可以使用以下代码来下载 python import nltk nltk.download(stopwords) nltk.download(punkt) 下载完成后可以使用以下代码来读取文章并进行分析 python import collections import nltk from nltk.corpus import stopwords from nltk.tokenize import word_tokenize 读取文章 with open(article.txt, r,encodingutf-8) as f: article f.read() 分词 tokens word_tokenize(article) 去除停用词 stopwords set(stopwords.words(english)) filteredtokens [token for token in tokens if token.lower() not in stop_words] 统计词频 wordfreq collections.Counter(filteredtokens) 输出高频词 print(Top 10 frequent words:) for word, freq in wordfreq.mostcommon(10): print(f{word}: {freq}) 提取关键词 keywords nltk.FreqDist(filtered_tokens).keys() 输出关键词 print(Keywords:) for keyword in keywords: print(keyword) 上述代码中首先使用 open() 函数读取文章然后使用 word_tokenize() 函数将文章分词。接着使用 stopwords 数据集去除停用词使用 collections.Counter() 函数统计词频并输出高频词。最后使用 nltk.FreqDist() 函数提取关键词并输出关键词。 需要注意的是上述代码中的 article.txt 文件需要替换为实际的文章文件路径。 结巴(jieba)库实现 python 导入必要的库 import jieba import jieba.analyse from collections import Counter from wordcloud import WordCloud import matplotlib.pyplot as plt 读取文章 with open(./data/2.txt, r, encodingutf-8) as f: article f.read() 分词 words jieba.cut(article) 统计词频 word_counts Counter(words) 输出高频词 print(高频词) for word, count in wordcounts.mostcommon(10): print(word, count) 输出关键词 print(关键词) keywords jieba.analyse.extract_tags(article, topK10, withWeightTrue, allowPOS(n, nr, ns)) for keyword, weight in keywords: print(keyword, weight) 生成词云 wordcloud WordCloud(fontpathmsyh.ttc, backgroundcolorwhite, width800, height600).generate(article) plt.imshow(wordcloud, interpolationbilinear) plt.axis(off) plt.show() 导入jieba库首先需要导入jieba库才能使用其中的分词功能。读取文章需要读取要分析的文章可以使用Python内置的open函数打开文件然后使用read方法读取文件内容。分词使用jieba库的cut方法对文章进行分词得到一个生成器对象可以使用for循环遍历生成器对象得到每个词。统计词频使用Python内置的collections库中的Counter类对分词后的词进行统计得到每个词出现的次数。输出高频词根据词频统计结果输出出现频率最高的词即为高频词。输出关键词使用jieba库的analyse模块中的extract_tags方法根据TF-IDF算法计算每个词的权重输出权重最高的词即为关键词。生成词云使用wordcloud库生成词云将文章中的词按照词频生成词云词频越高的词在词云中出现的越大。
http://www.pierceye.com/news/115191/

相关文章:

  • 建站公司外包钓鱼网站怎么做
  • 个人网站logo需要备案吗鑫灵锐做网站多少钱
  • .xyz做网站怎么样网站产品预算
  • 建网站先要申请网址吗做网站给文件不侵权
  • 一元夺宝网站建设Wordpress 普通图片裁剪
  • 网站推广都有哪些自己有网站怎么优化
  • 宠物交易网站模板更改wordpress后台登录地址
  • 有电脑网站怎样建手机正规网络游戏平台
  • 网站抓取QQ获取系统cms监控手机客户端
  • 郑州网站推广价格优礼品网站模板
  • 百度指数不高的网站怎么优化网站图片类型
  • 北京专业做网站怎么样app软件开发摄像头
  • 网站建设导向erp系统软件免费版
  • 手表网站网站开发毕业设计文献综述
  • 台州网站制作维护关于微网站策划ppt怎么做
  • 网站建设中期目标开发app找那个公司
  • 跨境自建站模板网站内容和功能清单
  • 平面设计找素材的网站电子商务网站建设的步骤一般为(
  • 一个服务器可以备案几个网站凡科门店通怎么样
  • 房地产企业网站建设想给公司产品做个推广
  • 国外网站平台wordpress电脑安装教程
  • 网站开发合肥诚聘网站开发人员
  • 网站开发者模式怎么保存网站首页调用网站标题
  • 仿京东网站模板wordpress单页视差
  • php mysql 网站建设html5手机网站模板
  • 山楂树建站公司建筑方案设计说明模板
  • 服务器网站源码在哪建筑电工证
  • 网站导航国外做名片网站
  • 效益型网站西安移动网站建设
  • 爱站工具查询深一集团的网站谁做的