当前位置: 首页 > news >正文

站长统计工具北京网站开发建设

站长统计工具,北京网站开发建设,wordpress 执行了两次,wordpress不同背景注意#xff1a;本文只针对离散随机变量做出探讨#xff0c;连续随机变量的情况不适用于本文探讨的内容#xff01; #xff08;一#xff09;自信息 1. 自信息 I ( x ) − l o g n P ( x ) \color{blue}I(x) - log_{n}{P(x)} I(x)−logn​P(x) 注意#xff1a; 若n …注意本文只针对离散随机变量做出探讨连续随机变量的情况不适用于本文探讨的内容 一自信息 1. 自信息 I ( x ) − l o g n P ( x ) \color{blue}I(x) - log_{n}{P(x)} I(x)−logn​P(x) 注意 若n 2叫做bit 若n 3叫做tet 若n e叫做nat 若n 10叫做hat 一般来讲在信息论中以2为底数比较普遍。 从公式的含义来看 由于 P ( x ) 代表的是概率的大小其值介于区间 ( 0 , 1 ) 之间 当 p ( x ) 趋于 0 时代表信息量是无穷大的而当 p ( x ) 趋于 1 时它代表的信息量是 0 。 \color{red}从公式的含义来看\\由于P(x)代表的是概率的大小其值介于区间(0,1)之间\\ 当p(x)趋于0时代表信息量是无穷大的而当p(x)趋于1时它代表的信息量是0。 从公式的含义来看由于P(x)代表的是概率的大小其值介于区间(0,1)之间当p(x)趋于0时代表信息量是无穷大的而当p(x)趋于1时它代表的信息量是0。 自信息还包括条件自信息和联合自信息。其中条件自信息定义如下 I ( x y ) − log ⁡ P ( x ∣ y ) − log ⁡ p ( x y ) p ( y ) I(xy) - \log P(x|y) - \log \frac {p(xy)}{p(y)} I(xy)−logP(x∣y)−logp(y)p(xy)​ 联合自信息的定义如下 I ( x y ) − l o g n P ( x y ) \color{red}I(xy) - log_{n}{P(xy)} I(xy)−logn​P(xy) 联合自信息的特点 I ( x y ) I ( y ∣ x ) I ( x ) I ( x ∣ y ) I ( y ) \color{red}I(xy) I(y|x) I(x) I(x|y) I(y) I(xy)I(y∣x)I(x)I(x∣y)I(y) 当x 与y 相互独立时有 I ( x y ) I ( x ) I ( y ) \color{red}I(xy) I(x) I(y) I(xy)I(x)I(y) 2. 条件熵 条件熵是平均条件自信息的另一种解释是条件自信息的期望值。 I ( x ∣ y ) − ∑ x ∈ X P ( x i ∣ y i ) ∑ y ∈ Y P ( y i ) l o g P ( x i ∣ y i ) − ∑ x ∈ X ∑ y ∈ Y P ( x y ) L o g P ( x ∣ y ) I(x|y) -\sum_{x\in X}P(x_i|y_i)\sum_{y \in Y}P(y_i)logP(x_i|y_i)-\sum_{x\in X}\sum _{y \in Y}P(xy)LogP(x|y) I(x∣y)−x∈X∑​P(xi​∣yi​)y∈Y∑​P(yi​)logP(xi​∣yi​)−x∈X∑​y∈Y∑​P(xy)LogP(x∣y) 要注意此处log符号前的概率是 p ( x y ) \color{green}p(xy) p(xy)而不是 p ( x ∣ y ) \color{green}p(x|y) p(x∣y) 另外从上面的公式可知必须要计算整个y的条件概率而不是 y i y_i yi​的条件概率故log符号前面是p(xy)而不是p(x|y) 3.平均互信息 I ( x ; y ) ∑ x ∈ X ∑ y ∈ Y l o g p ( x y ) p ( x ) p ( y ) ∑ x ∈ X ∑ y ∈ Y l o g p ( x ∣ y ) p ( x ) ∑ x ∈ X ∑ y ∈ Y l o g p ( y ∣ x ) p ( y ) I ( y ; x ) I(x;y) \sum_{x \in X} \sum_{y \in Y} log \frac {p(xy)} {p(x) p (y)} \\ \sum_{x \in X} \sum_{y \in Y} log \frac {p(x|y)} {p(x)} \sum_{x \in X} \sum_{y \in Y} log \frac {p(y|x)} {p(y)} I(y;x) I(x;y)x∈X∑​y∈Y∑​logp(x)p(y)p(xy)​x∈X∑​y∈Y∑​logp(x)p(x∣y)​x∈X∑​y∈Y∑​logp(y)p(y∣x)​I(y;x) 互信息的重要性质 I ( x ; y ) H ( x ) − H ( x ∣ y ) H ( y ) − H ( y ∣ x ) I(x; y) H(x) - H(x|y) H(y) -H(y|x) I(x;y)H(x)−H(x∣y)H(y)−H(y∣x) 证明 H ( x ) − H ( x ∣ y ) − ∑ x ∈ X P ( x ) l o g P ( x ) ∑ x ∈ X ∑ y ∈ Y p ( x y ) l o g P ( x ∣ y ) − ∑ x ∈ X p ( x ) l o g p ( x ) ∑ y ∈ Y p ( y ∣ x ) ∑ x ∈ X ∑ y ∈ Y p ( x y ) l o g P ( x ∣ y ) − ∑ x ∈ X ∑ y ∈ Y p ( x y ) l o g p ( x ) ∑ x ∈ X ∑ y ∈ Y p ( x y ) l o g P ( x ∣ y ) ∑ x ∈ X ∑ y ∈ Y p ( x y ) l o g P ( x y ) P ( x ) P ( y ) I ( x ; y ) H(x) - H (x|y) -\sum_{x \in X} P(x)log P(x) \sum_{x \in X} \sum_{y \in Y} p(xy)log P(x|y) \\ - \sum_{x \in X}p(x) log p(x) \sum_{y \in Y} p(y|x) \sum_{x \in X} \sum_{y \in Y} p(xy)log P(x|y)\\ - \sum_{x \in X} \sum_{y \in Y}p(xy)logp(x) \sum_{x \in X} \sum_{y \in Y} p(xy)log P(x|y) \\ \sum_{x \in X} \sum_{y \in Y} p(xy)log \frac {P(xy)}{P(x)P(y)} I(x;y) H(x)−H(x∣y)−x∈X∑​P(x)logP(x)x∈X∑​y∈Y∑​p(xy)logP(x∣y)−x∈X∑​p(x)logp(x)y∈Y∑​p(y∣x)x∈X∑​y∈Y∑​p(xy)logP(x∣y)−x∈X∑​y∈Y∑​p(xy)logp(x)x∈X∑​y∈Y∑​p(xy)logP(x∣y)x∈X∑​y∈Y∑​p(xy)logP(x)P(y)P(xy)​I(x;y) 此处要注意的是一个知识点就是 ∑ y ∈ Y p ( y i ∣ x ) ∑ y ∈ Y p ( x ∣ y i ) p ( y i ) p ( x ) 1 \sum_{y \in Y} p(y_i|x) \sum_{y \in Y} \frac {p(x|y_i)p(y_i)}{p(x)} 1 ∑y∈Y​p(yi​∣x)∑y∈Y​p(x)p(x∣yi​)p(yi​)​1 注意平均的含义是期望值平均互信息即为互信息的期望值其定义为 I ( x ; y ) ∑ x ∈ X ∑ y ∈ Y P ( x y ) l o g p ( x y ) p ( x ) p ( y ) ∑ x ∈ X ∑ y ∈ Y P ( x y ) l o g p ( x ∣ y ) p ( x ) ∑ x ∈ X ∑ y ∈ Y P ( x y ) l o g p ( y ∣ x ) p ( y ) I ( y ; x ) I(x;y) \sum_{x \in X} \sum_{y \in Y} P(xy) log \frac {p(xy)} {p(x) p (y)} \\ \sum_{x \in X} \sum_{y \in Y} P(xy) log \frac {p(x|y)} {p(x)} \sum_{x \in X} \sum_{y \in Y} P(xy) log \frac {p(y|x)} {p(y)} I(y;x) I(x;y)x∈X∑​y∈Y∑​P(xy)logp(x)p(y)p(xy)​x∈X∑​y∈Y∑​P(xy)logp(x)p(x∣y)​x∈X∑​y∈Y∑​P(xy)logp(y)p(y∣x)​I(y;x) 4. 条件互信息 联合集XYZ中给定条件Z下X与Y的互信息定义如下 I ( x ; y ∣ z ) I ( x ∣ z ) − I ( x ∣ y z ) − log ⁡ P ( x ∣ z ) log ⁡ P ( x ∣ y z ) log ⁡ p ( x ∣ y z ) p ( x ∣ z ) I(x;y|z) I(x|z) - I(x|yz) -\log P(x|z) \log P(x|yz) \log \frac {p(x|yz)}{p(x|z)} I(x;y∣z)I(x∣z)−I(x∣yz)−logP(x∣z)logP(x∣yz)logp(x∣z)p(x∣yz)​ 二熵 熵的定义比较重要重点讲述但是其含义跟上一个标题中的平均互信息、条件熵类似都是一种期望值。 熵的定义自信息的数学期望为信源的平均自信息量信息熵。 用数学期望值的原因是因为自信息是一个随机事件的概率 , 不能用作整个信源的信息测度。 由此可见熵是自信息概念的进一步扩展是自信息的期望值 \color{red}熵的定义自信息的数学期望为信源的平均自信息量信息熵。\\用数学期望值的原因是因为自信息是一个随机事件的概率, 不能用作整个信源的信息测度。\\由此可见熵是自信息概念的进一步扩展是自信息的期望值 熵的定义自信息的数学期望为信源的平均自信息量信息熵。用数学期望值的原因是因为自信息是一个随机事件的概率,不能用作整个信源的信息测度。由此可见熵是自信息概念的进一步扩展是自信息的期望值 二元熵 二元熵是熵的一个特例也就是一件事情有两种情况发生这两种情况的概率已知那么这件事情的熵计算公式如下 H ( x ) − p l o g p − ( 1 − p ) l o g ( 1 − p ) H(x) - p log p - (1-p) log(1-p) H(x)−plogp−(1−p)log(1−p) 离散熵 H ( x ) E x [ I ( x ) ] − ∑ i 1 n [ P ( x i ) l o g n P ( x i ) ] \color{blue} H(x) E_x[I(x)]-\sum^{ n }_{i1} [P(x_i)log_nP(x_i)] H(x)Ex​[I(x)]−i1∑n​[P(xi​)logn​P(xi​)] 连续熵 H ( x ) E x [ I ( x ) ] − ∫ ∞ − ∞ P ( x ) l o g n P ( x ) d x \color{green}H(x) E_{x}[I(x)] - \int_{\infty}^{-\infty}P(x)log_{n}P(x)dx H(x)Ex​[I(x)]−∫∞−∞​P(x)logn​P(x)dx 注意积分中是对x微分而不是P(x) 熵的一些重要知识点 根据极限相关知识可得 lim ⁡ P ( x ) → 0 − P ( x ) l o g n P ( x ) lim ⁡ x → 0 l o g n P ( x ) 1 − P ( x ) 1 P ( x ) P ( x ) 2 P ( x ) 0 \color{red}\lim_{P(x) \to 0}-P(x)log_nP(x) \lim_{x \to 0} \frac {log_nP(x)} {\frac{1}{-P(x)}} \frac{1}{P(x)} P(x)^2 P(x) 0 P(x)→0lim​−P(x)logn​P(x)x→0lim​−P(x)1​logn​P(x)​P(x)1​P(x)2P(x)0 同时当P(x) 1时H(x) 0。 连续熵的导数为0时 H ′ ( x ) − P ( x ) l o g n P ( x ) 0 H(x) -P(x) log_nP(x) 0 H′(x)−P(x)logn​P(x)0可得 1当熵的导数为0时可得P(x) 1( P ( x ) 0 不在定义域中不符合条件 \color{green}P(x) 0不在定义域中不符合条件 P(x)0不在定义域中不符合条件因此熵在该点处取得极值。 2再考察P(x) 1 左右处的值左侧导数大于0右侧导数小于0因此在P(x) 1处连续熵函数取得最小值0。 此处似乎有错误 , 问题在于离散熵和连续熵函数具有很大的区别其细节问题留待勘查 \color{red}此处似乎有错误,问题在于离散熵和连续熵函数具有很大的区别其细节问题留待勘查 此处似乎有错误,问题在于离散熵和连续熵函数具有很大的区别其细节问题留待勘查 3熵的值总是大于0。由于P(x)的含义是x的概率概率总是大于0小于1的又 − P ( x ) l o g n P ( x ) P ( x ) l o g n 1 P ( x ) -P(x)log_nP(x) P(x)log_n \frac{1}{P(x)} −P(x)logn​P(x)P(x)logn​P(x)1​根据log函数的性质 l o g n 1 P ( x ) log_n\frac{1}{P(x)} logn​P(x)1​也大于0故熵的值必然大于0。 4H(xy) H(x) H(y|x) 证明 H ( x ) H ( y ∣ x ) − ∑ i 1 n P ( x y ) l o g P ( x y ) P ( x ) − ∑ i 1 n P ( x ) l o g P ( x ) − ∑ i 1 n P ( x y ) l o g P ( x y ) H ( x y ) H(x) H(y|x) - \sum_{i1}^n P(xy) log \frac {P(xy) }{P(x)} - \sum _{i1}^n P(x)log P(x) \\ -\sum_{i1}^n P(xy) log P(xy) H(xy) H(x)H(y∣x)−i1∑n​P(xy)logP(x)P(xy)​−i1∑n​P(x)logP(x)−i1∑n​P(xy)logP(xy)H(xy) 同理H(xy) H(y) H(x|y) 另外还有几个重要的结论 1当已知分布上下限时均匀分布的熵最大当知道均值和方差时正态分布的熵最大。 2给定一串数据其中数据元 x 出现的概率为p(x)则最佳编码长度为 − l o g 2 P ( x ) -log_2P(x) −log2​P(x)整段文本的平均编码长度为 − ∑ i 1 n P ( x i ) l o g 2 P ( x i ) -\sum_{i1}^{n}P(x_i)log_2P(x_i) −∑i1n​P(xi​)log2​P(xi​)即底为2的熵。 3最大离散熵定理 具有n个符号的离散信源只有在n个信源等概率的情况下熵才能取得最大值即等概率的熵最大这叫做最大离散熵定理。 此定理是熵的判定中一个重要定理。 最大离散熵定理的证明 已知条件 ∑ i 1 n p i 1 , H ( x ) − ∑ i 1 n p i l o g p i , p 1 p 2 . . p i p n , 根据拉格朗日乘数法则得 H ( x ) − ∑ i 1 n p i l o g p i λ ( ∑ i 1 n p i − 1 ) ∂ H ( x ) ∂ p i − n l o g p i − n n λ 0 , p i 1 n 由此得知 p i e λ − 1 即 p i 服从指数分布 已知条件\\ \sum _{i 1} ^ np_i 1, \\ H(x) -\sum_{i1}^{n} p_i log p_i,\\ p_1 p_2 .. p_i p_n,\\ 根据拉格朗日乘数法则得\\ H(x) -\sum_{i1}^{n} p_i log p_i \lambda(\sum _{i 1}^n p_i -1) \\ \frac {\partial H(x)}{\partial p_i} - nlogp_i - n n \lambda 0, p_i \frac {1}{n}由此得知\\ p_i e ^ {\lambda - 1}即p_i服从指数分布 已知条件i1∑n​pi​1,H(x)−i1∑n​pi​logpi​,p1​p2​..pi​pn​,根据拉格朗日乘数法则得H(x)−i1∑n​pi​logpi​λ(i1∑n​pi​−1)∂pi​∂H(x)​−nlogpi​−nnλ0,pi​n1​由此得知pi​eλ−1即pi​服从指数分布 4已知均值和方差时正态分布下熵的值最大该证明的参考链接如下 https://zhuanlan.zhihu.com/p/309831227 5任何概率分布下的信息熵一定不会大于它对其它概率分布下自信息的数学期望交叉熵有极小值 证明 ∵ l n x ≤ x − 1 ∴ ∑ i 1 n p i × l n q i p i ≤ ∑ i n n p i × ( q i p i − 1 ) ∑ i 1 n q i − ∑ i 1 n p i 0 ∴ ∑ i 1 n p i × l n q i p i ∑ i 1 n p i l n q i − ∑ i 1 n p i l n p i ≤ 0 ∴ ∑ i 1 n p i l n q i ≤ ∑ i 1 n p i l n p i \because lnx \le x - 1\\ \therefore \sum _{i1}^{n} p_i \times ln \frac {q_i}{p_i} \le \sum _{in} ^{n} p_i \times \bigl ( \frac{q_i}{p_i} - 1) \sum _{i1}^{n}q_i - \sum _{i1} ^ {n} p_i 0 \\ \therefore \sum _{i1}^{n} p_i \times ln \frac {q_i}{p_i} \sum _{i1}^{n} p_i ln q_i - \sum _{i1}^{n} p_i ln p_i \le 0 \\ \therefore \sum _{i1}^{n} p_i ln q_i \le \sum _{i1}^{n} p_i ln p_i ∵lnx≤x−1∴i1∑n​pi​×lnpi​qi​​≤in∑n​pi​×(pi​qi​​−1)i1∑n​qi​−i1∑n​pi​0∴i1∑n​pi​×lnpi​qi​​i1∑n​pi​lnqi​−i1∑n​pi​lnpi​≤0∴i1∑n​pi​lnqi​≤i1∑n​pi​lnpi​ 交叉熵有极小值也是机器学习的基础理论之一。 6熵函数具有上凸性熵函数必有最大值。此结论只针对离散随机变量 三熵几个概念之间的图形化关系 最后关于信息论中各个部分的关系如下其中 图中H(X)与H(Y)是XY两个部分的熵I(XY)是两者熵的重合部分。 H(X|Y)是H(X) 去掉I(XY)部分H(Y|X)是H(Y) 去掉I(XY)部分H(XY)是两者的面积去掉I(xy)的部分。
http://www.pierceye.com/news/153013/

相关文章:

  • 网站规划和建设的基本要求100个无水印短视频素材免费
  • 河北住房和建设厅官方网站如何建设运输网站
  • 网络品牌网站建设价格网站设计部
  • 用自己照片做衣服 杯子的是哪个网站深圳东门老街
  • 四川省乐山市建设银行网站互联网保险行业发展报告
  • 厦门手机网站建设是什么山东泰安昨晚发生的事
  • 山西网站开发公司园林景观设计公司计划书
  • 吉林平安建设网站项城市建设规划局网站
  • 购物网站er图经营管理培训课程
  • 男女明星直接做的视频网站wordpress设置的页面跳转失败
  • 建企业网站价格wordpress稳定吗
  • 免费1级做爰网站研发项目管理系统
  • 建设网站好公司石家庄招聘求职信息网
  • 杭州市建筑业协会官网在线seo推广软件
  • 网站建设策划师管理网站建设
  • 做搜狗网站排名首页公司取名生成器免费
  • 用模板搭建的网站备案吗官方网站平台下载软件
  • 网站建设和网络推广方案济宁网站建设那家好
  • 做网站用哪个软件写比较好电商运营团队结构图
  • 建设领域信用系统网站邢台网站建设讯息
  • 建设网站技术人员先进事迹无锡有哪些做网站的公司
  • 2016网站设计欣赏企业网站推广建设
  • 国外简洁的网站跨境电商服务平台有哪些
  • 国内做网站技术支持 网站建设
  • 绍兴做团购的网站织梦转易优cms
  • 百度 网站 质量度扬州市工程建设招标网
  • 营销网站建设流程图优化营商环境发言稿
  • 设计网站公司有哪些怎么做网店
  • 高端的网站设计费用外贸营销型网站建设平台
  • 买源码做网站简单嘛贵阳百度seo点击软件