当前位置: 首页 > news >正文

想制作自己的网站吗seo搜索引擎优化排名哪家更专业

想制作自己的网站吗,seo搜索引擎优化排名哪家更专业,wordpress跳转到微信,可视化手机网站开发工具AI人工智能10.HanLP实现k均值--文本聚类10. 文本聚类正所谓物以类聚#xff0c;人以群分。人们在获取数据时需要整理#xff0c;将相似的数据归档到一起#xff0c;自动发现大量样本之间的相似性#xff0c;这种根据相似性归档的任务称为聚类。10.1 概述聚类聚类(cluster a…AI人工智能10.HanLP实现k均值--文本聚类 10. 文本聚类正所谓物以类聚人以群分。人们在获取数据时需要整理将相似的数据归档到一起自动发现大量样本之间的相似性这种根据相似性归档的任务称为聚类。10.1 概述聚类聚类(cluster analysis )指的是将给定对象的集合划分为不同子集的过程目标是使得每个子集内部的元素尽量相似不同子集间的元素尽量不相似。这些子集又被称为簇(cluster),一般没有交集。一般将聚类时簇的数量视作由使用者指定的超参数虽然存在许多自动判断的算法但它们往往需要人工指定其他超参数。根据聚类结果的结构聚类算法也可以分为划分式(partitional )和层次化(hierarchieal两种。划分聚类的结果是一系列不相交的子集而层次聚类的结果是一棵树 叶子节点是元素父节点是簇。本章主要介绍划分聚类。文本聚类文本聚类指的是对文档进行聚类分析被广泛用于文本挖掘和信息检索领域。文本聚类的基本流程分为特征提取和向量聚类两步 如果能将文档表示为向量就可以对其应用聚类算法。这种表示过程称为特征提取而一旦将文档表示为向量剩下的算法就与文档无关了。这种抽象思维无论是从软件工程的角度还是从数学应用的角度都十分简洁有效。10.2 文档的特征提取词袋模型词袋(bag-of-words )是信息检索与自然语言处理中最常用的文档表示模型它将文档想象为一个装有词语的袋子 通过袋子中每种词语的计数等统计量将文档表示为向量。比如下面的例子:人 吃 鱼。美味 好 吃统计词频后如下:人1吃2鱼1美味1好1文档经过该词袋模型得到的向量表示为[1,2,1,1,1]这 5 个维度分别表示这 5 种词语的词频。一般选取训练集文档的所有词语构成一个词表词表之外的词语称为 oov不予考虑。一旦词表固定下来假设大小为 N。则任何一个文档都可以通过这种方法转换为一个N维向量。词袋模型不考虑词序也正因为这个原因词袋模型损失了词序中蕴含的语义比如对于词袋模型来讲“人吃鱼”和“鱼吃人”是一样的这就不对了。不过目前工业界已经发展出很好的词向量表示方法了: word2vec/bert 模型等。词袋中的统计指标词袋模型并非只是选取词频作为统计指标而是存在许多选项。常见的统计指标如下:布尔词频: 词频非零的话截取为1否则为0适合长度较短的数据集TF-IDF: 适合主题较少的数据集词向量: 如果词语本身也是某种向量的话则可以将所有词语的词向量求和作为文档向量。适合处理 OOV 问题严重的数据集。词频向量: 适合主题较多的数据集定义由 n 个文档组成的集合为 S定义其中第 i 个文档 di 的特征向量为 di其公式如下:[d_{i}left(operatorname{TF}left(t_{1}, d_{i}right), operatorname{TF}left(t_{2}, d_{i}right), cdots, operatorname{TF}left(t_{j}, d_{i}right), cdots, operatorname{TF}left(t_{m}, d_{i}right)right)]其中 tj表示词表中第 j 种单词m 为词表大小 TF(tj, di) 表示单词 tj 在文档 di 中的出现次数。为了处理长度不同的文档通常将文档向量处理为单位向量即缩放向量使得 ||d||1。10.3 k均值算法一种简单实用的聚类算法是k均值算法(k-means),由Stuart Lloyd于1957年提出。该算法虽然无法保证一定能够得到最优聚类结果但实践效果非常好。基于k均值算法衍生出许多改进算法先介绍 k均值算法然后推导它的一个变种。基本原理形式化啊定义 k均值算法所解决的问题给定 n 个向量 d1 到 dn以及一个整数 k要求找出 k 个簇 S1 到 Sk 以及各自的质心 C1 到 Ck使得下式最小:[text { minimize } mathcal{I}_{text {Euclidean }}sum_{r1}^{k} sum_{d_{i} in S_{r}}left|boldsymbol{d}_{i}-boldsymbol{c}_{r}right|^{2}]其中 ||di - Cr|| 是向量与质心的欧拉距离I(Euclidean) 称作聚类的准则函数。也就是说k均值以最小化每个向量到质心的欧拉距离的平方和为准则进行聚类所以该准则函数有时也称作平方误差和函数。而质心的计算就是簇内数据点的几何平均:[begin{array}{l}{s_{i}sum_{d_{j} in S_{i}} d_{j}} \ {c_{i}frac{s_{i}}{left|S_{i}right|}}end{array}]其中si 是簇 Si 内所有向量之和称作合成向量。生成 k 个簇的 k均值算法是一种迭代式算法每次迭代都在上一步的基础上优化聚类结果步骤如下:选取 k 个点作为 k 个簇的初始质心。将所有点分别分配给最近的质心所在的簇。重新计算每个簇的质心。重复步骤 2 和步骤 3 直到质心不再发生变化。k均值算法虽然无法保证收敛到全局最优但能够有效地收敛到一个局部最优点。对于该算法初级读者重点需要关注两个问题即初始质心的选取和两点距离的度量。初始质心的选取由于 k均值不保证收敏到全局最优所以初始质心的选取对k均值的运行结果影响非常大如果选取不当则可能收敛到一个较差的局部最优点。一种更高效的方法是 将质心的选取也视作准则函数进行迭代式优化的过程。其具体做法是先随机选择第一个数据点作为质心视作只有一个簇计算准则函数。同时维护每个点到最近质心的距离的平方作为一个映射数组 M。接着随机取准则函数值的一部分记作。遍历剩下的所有数据点若该点到最近质心的距离的平方小于0,则选取该点添加到质心列表同时更新准则函数与 M。如此循环多次直至凑足 k 个初始质心。这种方法可行的原理在于每新增一个质心都保证了准则函数的值下降一个随机比率。 而朴素实现相当于每次新增的质心都是完全随机的准则函数的增减无法控制。孰优孰劣一目了然。考虑到 k均值是一种迭代式的算法 需要反复计算质心与两点距离这部分计算通常是效瓶颈。为了改进朴素 k均值算法的运行效率HanLP利用种更快的准则函数实现了k均值的变种。更快的准则函数除了欧拉准则函数还存在一种基于余弦距离的准则函数:[text { maximize } mathcal{I}_{mathrm{cos}}sum_{r1}^{k} sum_{d_{i} in S_{r}} cos left(boldsymbol{d}_{i}, boldsymbol{c}_{r}right)]该函数使用余弦函数衡量点与质心的相似度目标是最大化同簇内点与质心的相似度。将向量夹角计算公式代人该准则函数变换为:[mathcal{I}_{mathrm{cos}}sum_{r1}^{k} sum_{d_{i} in S_{r}} frac{d_{i} cdot c_{r}}{left|c_{r}right|}]代入后变换为:[mathcal{I}_{cos }sum_{r1}^{k} frac{S_{r} cdot c_{r}}{left|c_{r}right|}sum_{r1}^{k} frac{left|S_{r}right| c_{r} cdot c_{r}}{left|c_{r}right|}sum_{r1}^{k}left|S_{r}right|left|c_{r}right|sum_{r1}^{k}left|s_{r}right|]也就是说余弦准则函数等于 k 个簇各自合成向量的长度之和。比较之前的准则函数会发现在数据点从原簇移动到新簇时I(Euclidean) 需要重新计算质心以及两个簇内所有点到新质心的距离。而对于I(cos)由于发生改变的只有原簇和新簇两个合成向量只需求两者的长度即可计算量一下子减小不少。基于新准则函数 I(cos)k均值变种算法流程如下:选取 k 个点作为 k 个簇的初始质心。将所有点分别分配给最近的质心所在的簇。对每个点计算将其移入另一个簇时 I(cos) 的增大量找出最大增大量并完成移动。重复步骤 3 直到达到最大迭代次数或簇的划分不再变化。实现在 HanLP 中聚类算法实现为 ClusterAnalyzer用户可以将其想象为一个文档 id 到文档向量的映射容器。此处以某音乐网站中的用户聚类为案例讲解聚类模块的用法。假设该音乐网站将 6 位用户点播的歌曲的流派记录下来并且分别拼接为 6 段文本。给定用户名称与这 6 段播放历史要求将这 6 位用户划分为 3 个簇。实现代码如下:from pyhanlp import *ClusterAnalyzer JClass(com.hankcs.hanlp.mining.cluster.ClusterAnalyzer)if __name__ __main__:analyzer ClusterAnalyzer()analyzer.addDocument(赵一, 流行, 流行, 流行, 流行, 流行, 流行, 流行, 流行, 流行, 流行, 蓝调, 蓝调, 蓝调, 蓝调, 蓝调, 蓝调, 摇滚, 摇滚, 摇滚, 摇滚)analyzer.addDocument(钱二, 爵士, 爵士, 爵士, 爵士, 爵士, 爵士, 爵士, 爵士, 舞曲, 舞曲, 舞曲, 舞曲, 舞曲, 舞曲, 舞曲, 舞曲, 舞曲)analyzer.addDocument(张三, 古典, 古典, 古典, 古典, 民谣, 民谣, 民谣, 民谣)analyzer.addDocument(李四, 爵士, 爵士, 爵士, 爵士, 爵士, 爵士, 爵士, 爵士, 爵士, 金属, 金属, 舞曲, 舞曲, 舞曲, 舞曲, 舞曲, 舞曲)analyzer.addDocument(王五, 流行, 流行, 流行, 流行, 摇滚, 摇滚, 摇滚, 嘻哈, 嘻哈, 嘻哈)analyzer.addDocument(马六, 古典, 古典, 古典, 古典, 古典, 古典, 古典, 古典, 摇滚)print(analyzer.kmeans(3))结果如下:[[李四, 钱二], [王五, 赵一], [张三, 马六]]通过 k均值聚类算法我们成功的将用户按兴趣分组获得了“人以群分”的效果。聚类结果中簇的顺序是随机的每个簇中的元素也是无序的由于 k均值是个随机算法有小概率得到不同的结果。该聚类模块可以接受任意文本作为文档而不需要用特殊分隔符隔开单词。10.4 重复二分聚类算法基本原理重复二分聚类(repeated bisection clustering) 是 k均值算法的效率加强版其名称中的bisection是“二分”的意思指的是反复对子集进行二分。该算法的步骤如下:挑选一个簇进行划分。利用 k均值算法将该簇划分为 2 个子集。重复步骤 1 和步骤 2直到产生足够舒朗的簇。每次产生的簇由上到下形成了一颗二叉树结构。正是由于这个性质重复二分聚类算得上一种基于划分的层次聚类算法。如果我们把算法运行的中间结果存储起来就能输出一棵具有层级关系的树。树上每个节点都是一个簇父子节点对应的簇满足包含关系。虽然每次划分都基于 k均值由于每次二分都仅仅在一个子集上进行输人数据少算法自然更快。在步骤1中HanLP采用二分后准则函数的增幅最大为策略每产生一个新簇都试着将其二分并计算准则函数的增幅。然后对增幅最大的簇执行二分重复多次直到满足算法停止条件。自动判断聚类个数k读者可能觉得聚类个数 k 这个超参数很难准确估计。在重复二分聚类算法中有一种变通的方法那就是通过给准则函数的增幅设定阈值 β 来自动判断 k。此时算法的停止条件为当一个簇的二分增幅小于 β 时不再对该簇进行划分即认为这个簇已经达到最终状态不可再分。当所有簇都不可再分时算法终止最终产生的聚类数量就不再需要人工指定了。实现from pyhanlp import *ClusterAnalyzer JClass(com.hankcs.hanlp.mining.cluster.ClusterAnalyzer)if __name__ __main__:analyzer ClusterAnalyzer()analyzer.addDocument(赵一, 流行, 流行, 流行, 流行, 流行, 流行, 流行, 流行, 流行, 流行, 蓝调, 蓝调, 蓝调, 蓝调, 蓝调, 蓝调, 摇滚, 摇滚, 摇滚, 摇滚)analyzer.addDocument(钱二, 爵士, 爵士, 爵士, 爵士, 爵士, 爵士, 爵士, 爵士, 舞曲, 舞曲, 舞曲, 舞曲, 舞曲, 舞曲, 舞曲, 舞曲, 舞曲)analyzer.addDocument(张三, 古典, 古典, 古典, 古典, 民谣, 民谣, 民谣, 民谣)analyzer.addDocument(李四, 爵士, 爵士, 爵士, 爵士, 爵士, 爵士, 爵士, 爵士, 爵士, 金属, 金属, 舞曲, 舞曲, 舞曲, 舞曲, 舞曲, 舞曲)analyzer.addDocument(王五, 流行, 流行, 流行, 流行, 摇滚, 摇滚, 摇滚, 嘻哈, 嘻哈, 嘻哈)analyzer.addDocument(马六, 古典, 古典, 古典, 古典, 古典, 古典, 古典, 古典, 摇滚)print(analyzer.repeatedBisection(3)) # 重复二分聚类print(analyzer.repeatedBisection(1.0)) # 自动判断聚类数量k运行结果如下:[[李四, 钱二], [王五, 赵一], [张三, 马六]][[李四, 钱二], [王五, 赵一], [张三, 马六]]与上面音乐案例得出的结果一致但运行速度要快不少。10.5 标准化评测本次评测选择搜狗实验室提供的文本分类语料的一个子集我称它为“搜狗文本分类语料库迷你版”。该迷你版语料库分为5个类目每个类目下1000 篇文章共计5000篇文章。运行代码如下:from pyhanlp import *import zipfileimport osfrom pyhanlp.static import download, remove_file, HANLP_DATA_PATHdef test_data_path():获取测试数据路径位于$root/data/test根目录由配置文件指定。:return:data_path os.path.join(HANLP_DATA_PATH, test)if not os.path.isdir(data_path):os.mkdir(data_path)return data_path## 验证是否存在 MSR语料库如果没有自动下载def ensure_data(data_name, data_url):root_path test_data_path()dest_path os.path.join(root_path, data_name)if os.path.exists(dest_path):return dest_pathif data_url.endswith(.zip):dest_path .zipdownload(data_url, dest_path)if data_url.endswith(.zip):with zipfile.ZipFile(dest_path, r) as archive:archive.extractall(root_path)remove_file(dest_path)dest_path dest_path[:-len(.zip)]return dest_pathsogou_corpus_path ensure_data(搜狗文本分类语料库迷你版, http://file.hankcs.com/corpus/sogou-text-classification-corpus-mini.zip)## ## 以下开始聚类ClusterAnalyzer JClass(com.hankcs.hanlp.mining.cluster.ClusterAnalyzer)if __name__ __main__:for algorithm in kmeans, repeated bisection:print(%s F1%.2fn % (algorithm, ClusterAnalyzer.evaluate(sogou_corpus_path, algorithm) * 100))运行结果如下:kmeans F183.74repeated bisection F185.58评测结果如下表:算法F1耗时k均值83.7467秒重复二分聚类85.5824秒对比两种算法重复二分聚类不仅准确率比 k均值更高而且速度是 k均值的 3 倍。然而重复二分聚类成绩波动较大需要多运行几次才可能得出这样的结果。无监督聚类算法无法学习人类的偏好对文档进行划分也无法学习每个簇在人类那里究竟叫什么。10.6 GitHubHanLP何晗--《自然语言处理入门》笔记项目持续更新中......目录内容来源于网络如有侵权请联系客服删除
http://www.pierceye.com/news/615681/

相关文章:

  • 大连企业网站排名优化平面设计和网页设计
  • 广州网站建设工作室招聘文创产品设计分析
  • 产品是做网站seo网站设计费用
  • 公司网站的搭建方案做海报图片的网站
  • 纯文本网站建设小米发布会最新
  • 定制版网站建设费用网站服务器干啥
  • 漂亮的网站是什么建设出来的弄一个小程序要多少钱
  • 房地产网站模板 下载免费空间和域名
  • 通付盾 建设网站公司最新永久地域自动跳转
  • 宁波建网站选哪家好一点wordpress手机全部显示
  • 如何注册属于自己的网站做列表的网站
  • 网站公司seo杭州网站建设模板
  • 网站内链如何布局优化大师下载
  • 如何做网站需求表格清单电影购买网站怎么设计
  • 有口碑的常州网站建设家政公司网站建设方案
  • 用户体验设计师吉林网站seo
  • 便宜营销型网站建设优化建站多网站绑定域名
  • 什么网站教人做3d效果图网站建设电话销售不被挂断
  • 村级网站建设 不断增强免费logo设计图案创意
  • 做网站优化有什么途径什么类型的公司需要做建设网站的
  • 计算机毕设代做网站深圳自适应网站开发
  • 万网主机建设网站流程idc 网站备案
  • 收费用的网站怎么做珠海网站关键词推广
  • 学技巧网站制作网站建设税率多少
  • 高端网站设计平台网页设计模板的网站
  • 万网云服务器网站上线网站开发开票税率
  • 西安高端网站制作公司网站开发需要哪些知识
  • 不错的网站建设公网站建设产品展示型的
  • 泰安住房和城乡建设局网站东莞网站推广哪家好信息
  • 个人网站制作的选题意义简短干净三字公司起名