在网站留外链怎么做,查询域名,制作微信公众号的软件,如何在自己网站做解析api文章目录 线性学习方法聚类ClusteringKmeansHAC 分布表示降维PCAMatrix FactorizationManifold LearningLLELaplacian Eigenmapst-SEN 线性学习方法 聚类Clustering
Kmeans 随机选取K个中心#xff0c;然后计算每个点与中心的距离#xff0c;找最近的#xff0c;然后更新中… 文章目录 线性学习方法聚类ClusteringKmeansHAC 分布表示降维PCAMatrix FactorizationManifold LearningLLELaplacian Eigenmapst-SEN 线性学习方法 聚类Clustering
Kmeans 随机选取K个中心然后计算每个点与中心的距离找最近的然后更新中心点
HAC 如何觉得距离的个数跟kmeans不一样切的地方不一样导致的数量会不一样。
分布表示 降维 PCA 特征先归一化然后计算投影选择最大的方差的 w 1 w_1 w1 与 w 2 w_2 w2是垂直的后续也是找垂直于它们的 w 3 w_3 w3 …看需要多少维。 w 1 w1 w1就是最大的特征向量。然后找下一个 w 2 w2 w2 基本的内容组成直线点斜线圆圈等。一个数字就能用这些进行表示 在强度生命力攻击力等方面各有侧重
Matrix Factorization 元素之间有些相同的特点。 这些事情是没有人知道的。 有的是只有这种关系矩阵如果基于这些关系推断出关系 可以将这个进行矩阵分解得到两个向量相乘但是会存在那种缺失值的话可以考虑使用梯度下降方法 只考虑有定义的值。 就可以预测缺失的值然后就能判断每个人对某个物体的喜好程度填充 该算法可以用于推荐系统。
可以考虑通过梯度下降算法硬解一下。 MF也可以用于主题分析LSA Manifold Learning 从立体变成2d
LLE Laplacian Eigenmaps t-SEN coil-20数据 两个分布越接近越好KL散度对这个问题做梯度下降的。 这种相似度计算方式会维持原来的距离。