当前位置: 首页 > news >正文

购物网站做兼职拔萝卜在线视频免费观看

购物网站做兼职,拔萝卜在线视频免费观看,百度网站诚信认证,江宁网站建设价位Least Square Method 1、相关的矩阵公式2、线性回归3、最小二乘法3.1、损失函数#xff08;Loss Function#xff09;3.2、多维空间的损失函数3.3、解析法求解3.4、梯度下降法求解 1、相关的矩阵公式 P r e c o n d i t i o n : ξ ∈ R n , A ∈ R n ∗ n i : σ A ξ σ ξ… Least Square Method 1、相关的矩阵公式2、线性回归3、最小二乘法3.1、损失函数Loss Function3.2、多维空间的损失函数3.3、解析法求解3.4、梯度下降法求解 1、相关的矩阵公式 P r e c o n d i t i o n : ξ ∈ R n , A ∈ R n ∗ n i : σ A ξ σ ξ A T i i : σ ξ T A ξ σ ξ A T ξ A ξ i i i : ( A B ) T B T A T i v : ( A B ) T A T B T v : ∥ ξ ∥ ξ T ξ \begin{array}{l} Precondit{\rm{i}}on:\xi \in {R^n},A \in {R^{n*n}}\\ \\ i:\frac{{\sigma A\xi }}{{\sigma \xi }} {A^T}\\ \\ ii:\frac{{\sigma {\xi ^T}A\xi }}{{\sigma \xi }} {A^T}\xi A\xi \\ \\ iii:{\left( {AB} \right)^T} {B^T}{A^T}\\ \\ iv:{\left( {A B} \right)^T} {A^T} {B^T}\\ \\ v:\left\| \xi \right\| {\xi ^T}\xi \end{array} Precondition:ξ∈Rn,A∈Rn∗ni:σξσAξ​ATii:σξσξTAξ​ATξAξiii:(AB)TBTATiv:(AB)TATBTv:∥ξ∥ξTξ​ 2、线性回归 线性回归Linear Regression个人理解大概是说一组数据基本上服从线性分布。举一个在二维平面中线性回归的例子如下图所示我们可以找到一条表达式为 y a x b yaxb yaxb的直线来大概的拟合这些数据。进而我们可以用这条直线去预测新输入的点的相应的坐标。那么这种寻找线性方程去拟合数据的方式我们称之为线性回归。 3、最小二乘法 3.1、损失函数Loss Function 在二维平面中我们可以设这条可以拟合大多数数据的直线的表达式如下: h ( θ ) θ 1 x θ 2 h\left( \theta \right) {\theta _1}{x} {\theta _2} h(θ)θ1​xθ2​ 其中 θ 1 {{\theta _1}} θ1​和 θ 2 {{\theta _2}} θ2​就是 y a x b y ax b yaxb中的 a a a和 b b b只是换了一种表达而已。 接着可以求得平面上每一个点在这条直线上对应的坐标即估计值 h 1 ( θ ) θ 1 x 1 θ 2 h 2 ( θ ) θ 1 x 2 θ 2 . . . . h n ( θ ) θ 1 x n θ 2 \begin{array}{l} {h_1}\left( \theta \right) {\theta _1}{x_1} {\theta _2}\\ {h_2}\left( \theta \right) {\theta _1}{x_2} {\theta _2}\\ ....\\ {h_n}\left( \theta \right) {\theta _1}{x_n} {\theta _2} \end{array} h1​(θ)θ1​x1​θ2​h2​(θ)θ1​x2​θ2​....hn​(θ)θ1​xn​θ2​​ 再求这些点在直线上的坐标和真实坐标的差的平方就得到损失函数的表达式。 L ( θ ) ∑ i 1 m ( h i ( θ ) − f ( x i ) ) 2 L\left( \theta \right) \sum\limits_{i 1}^m {{{\left( {{h_i}\left( \theta \right) - f\left( {{x_i}} \right)} \right)}^2}} L(θ)i1∑m​(hi​(θ)−f(xi​))2 其中 f ( x i ) {f\left( {{x_i}} \right)} f(xi​)则是 x i {{x_i}} xi​对应的真实坐标值。 因此可以通过损失函数 L ( θ ) L\left( \theta \right) L(θ)来找出适当的 θ 1 {{\theta _1}} θ1​和 θ 2 {{\theta _2}} θ2​使其 f ( x i ) {f\left( {{x_i}} \right)} f(xi​)之间的方差最小。求解方法放在后面讲。 3.2、多维空间的损失函数 在 m m m维线性空间中有 n n n个点。其对应的预测方程应该如下 h 1 ( θ ) θ 1 x 11 θ 2 x 12 . . . θ m − 1 x 1 m − 1 θ m h 2 ( θ ) θ 1 x 21 θ 2 x 22 . . . θ m − 1 x 2 m − 1 θ m . . . h n ( θ ) θ 1 x n 1 θ 2 x n 2 . . . θ m − 1 x n m − 1 θ m \begin{array}{l} {h_1}\left( \theta \right) {\theta _1}{x_{11}} {\theta _2}{x_{12}} ... {\theta _{m - 1}}{x_{1m - 1}} {\theta _m}\\ {h_2}\left( \theta \right) {\theta _1}{x_{21}} {\theta _2}{x_{22}} ... {\theta _{m - 1}}{x_{2m - 1}} {\theta _m}\\ ...\\ {h_n}\left( \theta \right) {\theta _1}{x_{n1}} {\theta _2}{x_{n2}} ... {\theta _{m - 1}}{x_{nm - 1}} {\theta _m} \end{array} h1​(θ)θ1​x11​θ2​x12​...θm−1​x1m−1​θm​h2​(θ)θ1​x21​θ2​x22​...θm−1​x2m−1​θm​...hn​(θ)θ1​xn1​θ2​xn2​...θm−1​xnm−1​θm​​ 其中 n m nm nm方程数量等比未知数多才能有解。损失函数的表达式依旧如此 L ( θ ) ∑ i 1 m ( h i ( θ ) − f ( x i ) ) 2 L\left( \theta \right) \sum\limits_{i 1}^m {{{\left( {{h_i}\left( \theta \right) - f\left( {{x_i}} \right)} \right)}^2}} L(θ)i1∑m​(hi​(θ)−f(xi​))2 那么再将以上的所有变量矩阵化 可以得到损失函数的表达式为 L ( θ ) ∥ X θ − F ∥ 2 ( X θ − F ) T ( X θ − F ) L\left( \theta \right) {\left\| {X\theta - F} \right\|^2} {\left( {X\theta - F} \right)^T}\left( {X\theta - F} \right) L(θ)∥Xθ−F∥2(Xθ−F)T(Xθ−F) 再展开化简 L ( θ ) ∥ X θ − F ∥ 2 ( X θ − F ) T ( X θ − F ) ( θ T X T − F T ) ( X θ − F ) θ T X T X θ − θ T X T F − F T X θ F T F θ T X T X θ − 2 F T X θ F T F \begin{array}{l} L\left( \theta \right) {\left\| {X\theta - F} \right\|^2} {\left( {X\theta - F} \right)^T}\left( {X\theta - F} \right)\\ \\ \left( {{\theta ^T}{X^T} - {F^T}} \right)\left( {X\theta - F} \right) {\theta ^T}{X^T}X\theta - {\theta ^T}{X^T}F - {F^T}X\theta {F^T}F\\ \\ {\theta ^T}{X^T}X\theta - 2{F^T}X\theta {F^T}F \end{array} L(θ)∥Xθ−F∥2(Xθ−F)T(Xθ−F)(θTXT−FT)(Xθ−F)θTXTXθ−θTXTF−FTXθFTFθTXTXθ−2FTXθFTF​ 根据上文我们知道化简的目的是为了找到适当的 θ \theta θ使得损失函数 L ( θ ) L\left( \theta \right) L(θ)最小而常用的求 θ \theta θ有两种分别是解析法求解和梯度下降法。 3.3、解析法求解 从高数可以知当偏导等于零时该点是极值点说的不严谨emm。所以我们直接求偏导另其为零即可得 θ \theta θ。 σ L ( θ ) σ θ 2 X T X θ − 2 X T F 0 θ ( X T X ) − 1 X T F \begin{array}{l} \frac{{\sigma L\left( \theta \right)}}{{\sigma \theta }} 2{X^T}X\theta - 2{X^T}F 0\\ \\ \theta {\left( {{X^T}X} \right)^{ - 1}}{X^T}F \end{array} σθσL(θ)​2XTXθ−2XTF0θ(XTX)−1XTF​ 但这种方法要求 X T X {{{X^T}X}} XTX是可逆的即行列式不为零or满秩。很多时候这个条件并不成立所以在机器学习(Machine Learning)中经常用到梯度下降法。 3.4、梯度下降法求解 梯度下降基本思想是先随便取一个 θ i {\theta _i} θi​然后带入下式看看损失函数多大然后再在 θ i {\theta _i} θi​基础上取一个稍微小一点或大一点的 θ j {\theta _j} θj​带入下式看看此时的损失函数多大。如此往复找到那个最优的 θ \theta θ的取值。 L ( θ i ) θ i T X T X θ i − 2 F T X θ i F T F L\left( {{\theta _{\rm{i}}}} \right) {\theta _i}^T{X^T}X{\theta _i} - 2{F^T}X{\theta _i} {F^T}F L(θi​)θi​TXTXθi​−2FTXθi​FTF
http://www.pierceye.com/news/75669/

相关文章:

  • 联合易网做网站广州广告公司排行榜
  • 做门户网站广告家具网站建设公司
  • 东莞营销网站建设费用平衡木网站建设
  • 网站有死链怎么处理百度seo排名软
  • 阿里巴巴个人网站怎么做长春网站建设公司哪家好
  • 无锡专业做网站的公司有哪些画出网站和目录结构图
  • 网站做链接算侵权吗哪里有男男做受网站
  • 做网站资料准备做的网站没法本地上传图片
  • 分析seo网站做网站背景图片
  • 网站搭建框架是什么医疗行业企业网站建设
  • 环保类网站模板免费下载虹桥街道网站建设
  • 网站网络营销怎么做c 网站开发视频教程
  • 怎么建做网站在线做六级阅读网站
  • 网络推广机构吉林seo管理平台
  • 帝国cms网站源码电商网站功能模块图
  • 怎么用手机自己做网站优化方案英语必修一答案
  • 支持微信支付的网站开发东吴网架公司
  • 免费看电视剧的网站有哪些网站建设小组实训总结
  • 昆明优化网站排名seo网站建设哪家专业
  • 做简历网站有什么免费海外ip地址
  • h5商城网站怎么做的微信 app 微网站 整合
  • php网站管理系统网站网页建设实训心得
  • 南阳网站seo报价建立网站 用英语
  • 厦门做网站的公司亚洲网站正在建设中
  • 做网站需要哪些审核苏州网站推广哪家好
  • 古德设计网gooood官网太原seo计费管理
  • wordpress制作网站模板seo网站关键词排名优化
  • 门头沟新乡网站建设刷赞网站推广免费链接
  • 什么网站免费制作做网站怎么穿插元素
  • 做网站的目的和要求wordpress 标签调用