当前位置: 首页 > news >正文

南宁建设公司网站自己做文学网站赚钱吗

南宁建设公司网站,自己做文学网站赚钱吗,做网站需要写程序,更新带动器绪论 参考期刊 ICCV 偏向视觉CVPR 偏向MLIAAA AI原理ICML 参考链接 CSDN 机器学习知识点全面总结 课堂内容学习-0912-N1 对于特征提取#xff0c;简而言之就是同类聚得紧#xff0c;异类分得开#xff1b;   detection研究的是样本二分类问题#xff0c;即分为正样本…绪论 参考期刊 ICCV 偏向视觉CVPR 偏向MLIAAA AI原理ICML 参考链接 CSDN 机器学习知识点全面总结 课堂内容学习-0912-N1 对于特征提取简而言之就是同类聚得紧异类分得开   detection研究的是样本二分类问题即分为正样本和负样本其中正样本就是我们的检测目标   对于分类问题就是建立一个特征空间feature space寻求空间划分方法一般而言对于输入的裸数据需要对其进行transform,再根据其feature进行特征空间的划分这里transform就要讲究能将数据很好的根据其特征进行划分。  划分后的空间特征不是一成不变的根据所选择的空间基space basis的不同可以得到不同的特征空间在这里也可以引入稀疏表示用较少的基本信号的线性组合来表达大部分或者全部的原始信号 M L { r e p r e s e n t a t i o n l o s s _ f u n c t i o n o p t i m i z e r } l e a r n i n g : s u p e r v i s e d 、 u n s u p e r v i s e d 、 r e i n f o r c e m e n t ML {\{ representation loss_\_function optimizer \}} \\ learning:supervised、unsupervised、reinforcement ML{representationloss_​functionoptimizer}learning:supervised、unsupervised、reinforcement 有监督学习supervised 有数据标注情况下学习回归、分类 代表算法决策树、朴素贝叶斯、逻辑回归、KNN、SVM、神经网络、随机森林、AdaBoost、遗传算法 无监督学习 无监督学习主要聚类、维度约减减少数据的维度同时保证不丢失有意义的信息 代表算法主成分分析方法PCA等等距映射方法、局部线性嵌入方法、拉普拉斯特征映射方法、黑塞局部线性嵌入方法、局部切空间排列方法等 强化学习 通过学习可以获得最大回报的行为让agent个体根据自己当前的状态来决定下一步采取的动作在机器人中应用广泛 补充 泛函分析 Functional Analysis (泛函分析)通俗地可以理解为微积分从有限维空间到无限维空间的拓展——当然了它实际上远不止于此。在这个地方函数以及其所作用的对象之间存在的对偶关系扮演了非常重要的角色。Learning发展至今也在向无限维延伸——从研究有限维向量的问题到以无限维的函数为研究对象。Kernel Learning 和 Gaussian Process 是其中典型的例子——其中的核心概念都是Kernel。很多做Learning的人把Kernel简单理解为Kernel trick的运用这就把kernel的意义严重弱化了。在泛函里面Kernel (Inner Product) 是建立整个博大的代数体系的根本从metric, transform到spectrum都根源于此 稀疏表示Sparse representation 参考链接 https://www.cnblogs.com/yifdu25/p/8128028.html 用较少的基本信号的线性组合来表达大部分或者全部的原始信号。 其中这些基本信号被称作原子是从过完备字典中选出来的而过完备字典则是由个数超过信号维数的原子聚集而来的。可见任一信号在不同的原子组下有不同的稀疏表示。 假设我们用一个MN的矩阵表示数据集X每一行代表一个样本每一列代表样本的一个属性一般而言该矩阵是稠密的即大多数元素不为0。 稀疏表示的含义是寻找一个系数矩阵AKN以及一个字典矩阵BMK使得BA尽可能的还原X且A尽可能的稀疏。A便是X的稀疏表示。 南大周志华老师写的《机器学习》这本书上原文“为普通稠密表达的样本找到合适的字典将样本转化为合适的稀疏表达形式从而使学习任务得以简化模型复杂度得以降低通常称为‘字典学习’dictionary learning亦称‘稀疏编码’sparse coding”块内容。 表达为优化问题的话字典学习的最简单形式为 其中xi为第i个样本B为字典矩阵αi为xi的稀疏表示λ为大于0参数。 •寻找少量重要的系数来表示原始信号的技术被称作Sparse Coding稀疏编码或稀疏分解 协方差矩阵 参考链接如何直观地理解「协方差矩阵」 参考链接矩阵特征值和特征向量详细计算过程 方差和协方差的定义 在统计学中方差是用来度量单个随机变量的离散程度而协方差则一般用来刻画两个随机变量的相似程度 其中方差的计算公式为 σ x 2 1 n − 1 ∑ i 1 n ( x i − x ˉ ) 2 \sigma_x^2 \frac{1}{n - 1} \sum_{i1}^{n} (x_i - \bar{x})^2 σx2​n−11​i1∑n​(xi​−xˉ)2 其中n 表示样本量符号 x ˉ \bar{x} xˉ 表示观测样本的均值这个定义在初中阶段就已经开始接触了。 在此基础上协方差的计算公式被定义为 σ ( x , y ) 1 n − 1 ∑ i 1 n ( x i − x ˉ ) ( y i − y ˉ ) \sigma(x, y) \frac{1}{n - 1} \sum_{i1}^{n} (x_i - \bar{x})(y_i - \bar{y}) σ(x,y)n−11​i1∑n​(xi​−xˉ)(yi​−yˉ​)  在上述公式中符号 x ˉ , y ˉ \bar{x} ,\bar{y} xˉ,yˉ​分别表示两个随机变量所对应的观测样本均值,因此方差 可以看作x关于自己的协方差 σ ( x , x ) \sigma(x, x) σ(x,x) 从方差/协方差到协方差矩阵 考虑有关的随机变量给定 d d d 个随机变量 x k , k 1 , 2 , … , d x_k, k 1, 2, \ldots, d xk​,k1,2,…,d则这些随机变量的方差为 σ ( x k , x k ) 1 n − 1 ∑ i 1 n ( x k i − x ˉ k ) 2 , k 1 , 2 , … , d \sigma(x_k, x_k) \frac{1}{n - 1} \sum_{i1}^{n} (x_{ki} - \bar{x}_k)^2,\quad k 1, 2, \ldots, d σ(xk​,xk​)n−11​i1∑n​(xki​−xˉk​)2,k1,2,…,d 其中为方便书写 x k i x_ki xk​i 表示随机变量 x k x_k xk​ 的第 i i i 个观测值 n n n 表示样本量每个随机变量都有对应的观测值个数为 n n n,对于这些随机变量我们还可以定义其余变量的协方差实质两两之间的协方差即 σ ( x m , x k ) 1 n − 1 ∑ i 1 n ( x m i − x ˉ m ) ( x k i − x ˉ k ) \sigma(x_m, x_k) \frac{1}{n - 1} \sum_{i1}^{n} (x_{mi} - \bar{x}_m)(x_{ki} - \bar{x}_k) σ(xm​,xk​)n−11​i1∑n​(xmi​−xˉm​)(xki​−xˉk​) 因此协方差矩阵为 Σ [ σ ( x 1 , x 1 ) ⋯ σ ( x 1 , x d ) ⋮ ⋱ ⋮ σ ( x d , x 1 ) ⋯ σ ( x d , x d ) ] ∈ R d × d \Sigma \begin{bmatrix} \sigma(x_1, x_1) \cdots \sigma(x_1, x_d) \\ \vdots \ddots \vdots \\ \sigma(x_d, x_1) \cdots \sigma(x_d, x_d) \end{bmatrix} \in \mathbb{R}^{d \times d} Σ ​σ(x1​,x1​)⋮σ(xd​,x1​)​⋯⋱⋯​σ(x1​,xd​)⋮σ(xd​,xd​)​ ​∈Rd×d 其中对角线上的元素为变量的方差非对角线上的元素为变量两两之间的协方差根据协方差的定义我们可以认定协方差矩阵是对称矩阵(symmetric matrix)其大小为 d × d d \times d d×d。 从协方差矩阵到相关系数 相关系数的公式定义如下 ρ C o v ( X , Y ) σ x σ y \rho \frac{Cov(X,Y)}{\sigma_x \sigma_y} ρσx​σy​Cov(X,Y)​ 对于一个如下一个协方差矩阵可以求得其对应的相关系数 协方差矩阵为 [ 1 − 2 − 5 2 − 2 4 5 − 5 2 5 9 ] \begin{bmatrix} 1 -2-\frac{5}{2} \\ -2 4 5 \\ -\frac{5}{2} 5 9 \end{bmatrix} ​​1−2−25​​−245​−25​59​​ ​ 相关系数为 [ 1 − 1 − 5 6 − 1 1 5 6 − 5 6 5 6 1 ] \begin{bmatrix} 1 -1 -\frac{5}{6} \\ -1 1 \frac{5}{6} \\ -\frac{5}{6} \frac{5}{6} 1 \end{bmatrix} ​​1−1−65​​−1165​​−65​65​1​​ ​ 多元正态分布与线性变换 一个向量 x 服从均值向量为 μ、协方差矩阵为 Σ 的多元正态分布意味着这个向量的每一个分量都有其自己的均值和方差这些参数描述了变量之间的关系以及它们各自的波动性而整个向量则满足多元正态分布。 均值向量 μ 描述了向量的每个分量的平均值,也即 μ i \mu_i μi​描述的是第i个分量的平均值  协方差矩阵 Σ 描述了向量中各个分量之间的相关性以及它们各自的方差 因此向量在各个分量上的平均值是 μ i \mu_i μi​第 i i i个分量的方差是 σ i \sigma_i σi​第 i i i个与第 j j j个分量之间的协方差是 σ i j \sigma_{ij} σij​
http://www.pierceye.com/news/6578/

相关文章:

  • 做网站开发的营业执照企业网站建设的评价指标
  • 加强机关网站建设网站建设的发展前景
  • 重庆秀山网站建设费用python适合网站开发吗
  • 铆钉机 东莞网站建设南京网站设计公司济南兴田德润优惠吗
  • 给军方做网站套模板行不行做黄金期货的网站
  • 网站引导图建设农业网站的论文
  • 个人备案网站能做什么网站做成小程序
  • 淄博培训网站建设南宁商城开发
  • 做编辑器的网站企业网站规划与建设
  • 上海网站推荐wordpress 排行榜 页面
  • 广州最专业的网站建设教怎么做糕点网站
  • 上海icp新增网站网站建设方向论文提纲
  • 网站建设现状和前景合肥做网站cnfg
  • 省财政厅经济建设处网站网站建设公司antnw
  • 江阴网站网站建设北京朝阳区房价2023年最新房价
  • 外贸网站使用攻略最好看的WordPress 音乐播放器
  • 建设工程招标专业网站互联网保险销售行为可回溯
  • 城乡建设住房建设厅官方网深圳网站优化项目
  • 四川建设人才考试网官方网站宁波网站推广工具
  • 沧州南皮网站建设国外app素材网站
  • 沧浪手机网站建设公司堆广自己的业务怎么管理网站
  • 网站开发用什么系统比较好?自助建站系统源码 资源网
  • 建设企业网站地址网站制作引擎
  • 织梦的手机端网站自己做网站需要多少费用
  • 移动端企业网站模板下载设计师在线设计平台
  • 手机网站建设选 朗创营销遂宁网站优化
  • 在苏州找学生做家教在哪个网站网站模版 拓
  • 网站显示图片标记c语言做网站后台服务
  • 淄博市网站云平台dw友情链接怎么设置
  • 华宇网站建设经营网站备案信息管理系统