南宁建设公司网站,自己做文学网站赚钱吗,做网站需要写程序,更新带动器绪论 
参考期刊 
ICCV 偏向视觉CVPR 偏向MLIAAA AI原理ICML 
参考链接 
CSDN 机器学习知识点全面总结 
课堂内容学习-0912-N1 对于特征提取#xff0c;简而言之就是同类聚得紧#xff0c;异类分得开#xff1b;   detection研究的是样本二分类问题#xff0c;即分为正样本…绪论 
参考期刊 
ICCV 偏向视觉CVPR 偏向MLIAAA AI原理ICML 
参考链接 
CSDN 机器学习知识点全面总结 
课堂内容学习-0912-N1 对于特征提取简而言之就是同类聚得紧异类分得开   detection研究的是样本二分类问题即分为正样本和负样本其中正样本就是我们的检测目标   对于分类问题就是建立一个特征空间feature space寻求空间划分方法一般而言对于输入的裸数据需要对其进行transform,再根据其feature进行特征空间的划分这里transform就要讲究能将数据很好的根据其特征进行划分。  划分后的空间特征不是一成不变的根据所选择的空间基space basis的不同可以得到不同的特征空间在这里也可以引入稀疏表示用较少的基本信号的线性组合来表达大部分或者全部的原始信号 M L  { r e p r e s e n t a t i o n  l o s s _ f u n c t i o n  o p t i m i z e r } l e a r n i n g : s u p e r v i s e d 、 u n s u p e r v i s e d 、 r e i n f o r c e m e n t ML  {\{ representation  loss_\_function  optimizer \}} \\ learning:supervised、unsupervised、reinforcement ML{representationloss_functionoptimizer}learning:supervised、unsupervised、reinforcement 
有监督学习supervised 
有数据标注情况下学习回归、分类 代表算法决策树、朴素贝叶斯、逻辑回归、KNN、SVM、神经网络、随机森林、AdaBoost、遗传算法  
无监督学习 
无监督学习主要聚类、维度约减减少数据的维度同时保证不丢失有意义的信息 代表算法主成分分析方法PCA等等距映射方法、局部线性嵌入方法、拉普拉斯特征映射方法、黑塞局部线性嵌入方法、局部切空间排列方法等  
强化学习 
通过学习可以获得最大回报的行为让agent个体根据自己当前的状态来决定下一步采取的动作在机器人中应用广泛 
补充 
泛函分析 Functional Analysis (泛函分析)通俗地可以理解为微积分从有限维空间到无限维空间的拓展——当然了它实际上远不止于此。在这个地方函数以及其所作用的对象之间存在的对偶关系扮演了非常重要的角色。Learning发展至今也在向无限维延伸——从研究有限维向量的问题到以无限维的函数为研究对象。Kernel Learning 和 Gaussian Process 是其中典型的例子——其中的核心概念都是Kernel。很多做Learning的人把Kernel简单理解为Kernel trick的运用这就把kernel的意义严重弱化了。在泛函里面Kernel (Inner Product) 是建立整个博大的代数体系的根本从metric, transform到spectrum都根源于此 
稀疏表示Sparse representation 
参考链接 https://www.cnblogs.com/yifdu25/p/8128028.html 用较少的基本信号的线性组合来表达大部分或者全部的原始信号。 
其中这些基本信号被称作原子是从过完备字典中选出来的而过完备字典则是由个数超过信号维数的原子聚集而来的。可见任一信号在不同的原子组下有不同的稀疏表示。 
假设我们用一个MN的矩阵表示数据集X每一行代表一个样本每一列代表样本的一个属性一般而言该矩阵是稠密的即大多数元素不为0。 稀疏表示的含义是寻找一个系数矩阵AKN以及一个字典矩阵BMK使得BA尽可能的还原X且A尽可能的稀疏。A便是X的稀疏表示。 
南大周志华老师写的《机器学习》这本书上原文“为普通稠密表达的样本找到合适的字典将样本转化为合适的稀疏表达形式从而使学习任务得以简化模型复杂度得以降低通常称为‘字典学习’dictionary learning亦称‘稀疏编码’sparse coding”块内容。 
表达为优化问题的话字典学习的最简单形式为  其中xi为第i个样本B为字典矩阵αi为xi的稀疏表示λ为大于0参数。 
•寻找少量重要的系数来表示原始信号的技术被称作Sparse Coding稀疏编码或稀疏分解 
协方差矩阵 
参考链接如何直观地理解「协方差矩阵」 参考链接矩阵特征值和特征向量详细计算过程 
方差和协方差的定义 在统计学中方差是用来度量单个随机变量的离散程度而协方差则一般用来刻画两个随机变量的相似程度 其中方差的计算公式为  σ x 2  1 n − 1 ∑ i  1 n ( x i − x ˉ ) 2 \sigma_x^2  \frac{1}{n - 1} \sum_{i1}^{n} (x_i - \bar{x})^2 σx2n−11i1∑n(xi−xˉ)2 其中n 表示样本量符号  x ˉ \bar{x} xˉ 表示观测样本的均值这个定义在初中阶段就已经开始接触了。 在此基础上协方差的计算公式被定义为  σ ( x , y )  1 n − 1 ∑ i  1 n ( x i − x ˉ ) ( y i − y ˉ ) \sigma(x, y)  \frac{1}{n - 1} \sum_{i1}^{n} (x_i - \bar{x})(y_i - \bar{y}) σ(x,y)n−11i1∑n(xi−xˉ)(yi−yˉ)  在上述公式中符号 x ˉ , y ˉ \bar{x} ,\bar{y} xˉ,yˉ分别表示两个随机变量所对应的观测样本均值,因此方差 可以看作x关于自己的协方差 σ ( x , x ) \sigma(x, x) σ(x,x) 
从方差/协方差到协方差矩阵 考虑有关的随机变量给定  d d d 个随机变量  x k , k  1 , 2 , … , d x_k, k  1, 2, \ldots, d xk,k1,2,…,d则这些随机变量的方差为 σ ( x k , x k )  1 n − 1 ∑ i  1 n ( x k i − x ˉ k ) 2 , k  1 , 2 , … , d \sigma(x_k, x_k)  \frac{1}{n - 1} \sum_{i1}^{n} (x_{ki} - \bar{x}_k)^2,\quad k  1, 2, \ldots, d σ(xk,xk)n−11i1∑n(xki−xˉk)2,k1,2,…,d 其中为方便书写 x k i x_ki xki 表示随机变量  x k x_k xk 的第  i i i 个观测值 n n n 表示样本量每个随机变量都有对应的观测值个数为  n n n,对于这些随机变量我们还可以定义其余变量的协方差实质两两之间的协方差即  σ ( x m , x k )  1 n − 1 ∑ i  1 n ( x m i − x ˉ m ) ( x k i − x ˉ k ) \sigma(x_m, x_k)  \frac{1}{n - 1} \sum_{i1}^{n} (x_{mi} - \bar{x}_m)(x_{ki} - \bar{x}_k) σ(xm,xk)n−11i1∑n(xmi−xˉm)(xki−xˉk) 因此协方差矩阵为  Σ  [ σ ( x 1 , x 1 ) ⋯ σ ( x 1 , x d ) ⋮ ⋱ ⋮ σ ( x d , x 1 ) ⋯ σ ( x d , x d ) ] ∈ R d × d \Sigma  \begin{bmatrix} \sigma(x_1, x_1)  \cdots  \sigma(x_1, x_d) \\ \vdots  \ddots  \vdots \\ \sigma(x_d, x_1)  \cdots  \sigma(x_d, x_d) \end{bmatrix} \in \mathbb{R}^{d \times d} Σ   σ(x1,x1)⋮σ(xd,x1)⋯⋱⋯σ(x1,xd)⋮σ(xd,xd)   ∈Rd×d 其中对角线上的元素为变量的方差非对角线上的元素为变量两两之间的协方差根据协方差的定义我们可以认定协方差矩阵是对称矩阵(symmetric matrix)其大小为  d × d d \times d d×d。 
从协方差矩阵到相关系数 相关系数的公式定义如下  ρ  C o v ( X , Y ) σ x σ y \rho  \frac{Cov(X,Y)}{\sigma_x \sigma_y} ρσxσyCov(X,Y) 对于一个如下一个协方差矩阵可以求得其对应的相关系数 协方差矩阵为  [ 1 − 2 − 5 2 − 2 4 5 − 5 2 5 9 ] \begin{bmatrix} 1 -2-\frac{5}{2}  \\ -2 4 5  \\ -\frac{5}{2} 5 9  \end{bmatrix}    1−2−25−245−2559    相关系数为  [ 1 − 1 − 5 6 − 1 1 5 6 − 5 6 5 6 1 ] \begin{bmatrix}  1 -1 -\frac{5}{6}  \\  -1 1 \frac{5}{6}  \\  -\frac{5}{6} \frac{5}{6} 1  \end{bmatrix}    1−1−65−1165−65651    
多元正态分布与线性变换 一个向量 x 服从均值向量为 μ、协方差矩阵为 Σ 的多元正态分布意味着这个向量的每一个分量都有其自己的均值和方差这些参数描述了变量之间的关系以及它们各自的波动性而整个向量则满足多元正态分布。  均值向量 μ 描述了向量的每个分量的平均值,也即 μ i \mu_i μi描述的是第i个分量的平均值  协方差矩阵 Σ 描述了向量中各个分量之间的相关性以及它们各自的方差  因此向量在各个分量上的平均值是 μ i \mu_i μi第 i i i个分量的方差是 σ i \sigma_i σi第 i i i个与第 j j j个分量之间的协方差是 σ i j \sigma_{ij} σij