当前位置: 首页 > news >正文

做网站的一定要开80或8080端口做ppt的软件

做网站的一定要开80或8080端口,做ppt的软件,手机自己制作表白网站,zoho企业邮箱目录#xff1a;sheng的学习笔记-AI目录-CSDN博客 什么是类别不平衡问题 类别不平衡#xff08;class-imbalance#xff09;#xff0c;也叫数据倾斜#xff0c;数据不平衡#xff0c;就是指分类任务中不同类别的训练样例数目差别很大的情况。 例如有998个反例#xf…目录sheng的学习笔记-AI目录-CSDN博客 什么是类别不平衡问题 类别不平衡class-imbalance也叫数据倾斜数据不平衡就是指分类任务中不同类别的训练样例数目差别很大的情况。 例如有998个反例但正例只有2个那么学习方法只需返回一个永远将新样本预测为反例的学习器就能达到99.8%的精度然而这样的学习器往往没有价值因为它不能预测出任何正例 解决方案 3.1 省心的方法 在介绍后面三种高级方法之前先介绍几种朴实无华但很省心的方法。 主动收集数据这一点是从根本上解决问题 针对少量样本数据可以尽可能去扩大这些少量样本的数据集或者尽可能去增加他们特有的特征来丰富数据的多样性尽量转化成情况1。 譬如如果是一个情感分析项目在分析数据比例时发现负样本消极情感的样本数量较少那么我们可以尽可能在网站中搜集更多的负样本数量或者花钱去买毕竟数据少了会带来很多潜在的问题。 将任务转换成异常检测问题 如果少数类样本太少少数类的结构可能并不能被少数类样本的分布很好地表示那么用平衡数据或调整算法的方法不一定有效。如果这些少数类样本在特征空间中再分布的比较散情况会更加糟糕。这时候不如将其转换为无监督的异常检测算法不用过多的去考虑将数据转换为平衡问题来解决。如果实在凑不齐少量样本的类别就把这些类别去掉然后用无监督或者说异常检测的办法去检测。在工业机器视觉质检中样本量少的缺陷类别在今后生产过程中出现的概率也非常低靠增加样本去训练模型是不太现实的所以用无监督的办法才能有效避免漏检 调整权重 可以简单的设置损失函数的权重让模型增加对多数类的惩罚更多的关注少数类。在python的scikit-learn中我们可以使用class_weight参数来设置权重。 另外调整权重方法也适合于这种情况不同类型的错误所造成的后果不同。例如在医疗诊断中错误地把健康人诊断为患者可能会带来进一步检查的麻烦但是错误地把患者诊断为健康人则可能会丧失了拯救生命的最佳时机再如门禁系统错误地把可通行人员拦在门外将使得用户体验不佳但错误地把陌生人放进门内则会造成严重的安全事故在信用卡盗用检查中将正常使用误认为是盗用可能会使用户体验不佳但是将盗用误认为是正常使用会使用户承受巨大的损失。为了权衡不同类型错误所造成的不同损失可为错误赋予“非均等代价”unequal cost。 举个例子比如1000个样本10个负样本在计算损失函数的时候发现负样本的时候乘以一个系数让负样本产生的损失函数更大会逼迫训练出的系数对于负样本更敏感 阈值调整threshold moving 从线性分类器的角度讨论容易理解在我们用ywTxb对新样本x进行分类时事实上是在用预测出的y值与一个阈值进行比较例如通常在y0.5时判别为正例否则为反例。y实际上表达了正例的可能性几率则反映了正例可能性与反例可能性之比值阈值设置为0.5恰表明分类器认为真实正、反例可能性相同即分类器决策规则为 无偏采样意味着真实样本总体的类别比例在训练集中得以保持。然而当训练集中正、反例的数目不同时令m表示正例数目m-表示反例数目则观测几率是[插图]由于我们通常假设训练集是真实样本总体的无偏采样因此观测几率就代表了真实几率。于是只要分类器的预测几率高于观测几率就应判定为正例即  但是我们的分类器是基于式(3.46)进行决策因此需对其预测值进行调整使其在基于式(3.46)决策时实际是在执行式(3.47)。要做到这一点很容易只需令  亦称“再平衡”(rebalance)。 这就是类别不平衡学习的一个基本策略――“再缩放”(rescaling)。 3.2 调整数据 调整数据的方法也称为重采样方法是不平衡学习领域发展最早、影响力最大、使用最广泛的一类方法关注于通过修改训练数据集以使得标准学习算法也能在其上有效训练。根据实现方式的不同可被进一步分类为 从多数类别中删除样本欠采样如ENN、Tomeklink、NearMiss等为少数类别生成新样本过采样如SMOTE、Borderline-SMOTE、ADASYN等上述两种方案的结合过采样欠采样去噪如SMOTEENN等 由于随机欠采样可能会丢失含有重要信息的样本随机过采样可能会招致严重的过拟合简单的复制少数类的样本引入无意义的甚至有害的新样本粗暴地合成少数类样本因此发展了一系列更高级的方法试图根据数据的分布信息来在进行重采样的同时保持原有的数据结构。 注意在重采样过程中要尽可能的保持训练样本和测试样本的概率分布是一致的。如果违背了独立同分布的假设很可能会产生不好的效果。 3.2.1 欠采样(under sampling) 即去除一些反例使得正、反例数目接近然后再进行学习 下面介绍三种典型欠采样方法。 Edited Nearest Neighbor (ENN) 针对那些多数类的样本如果它的大部分k近邻样本都跟它本身的类别不一样就说明它处于类别边缘交界处甚至少数类簇中我们就把它删除。 Repeated Edited Nearest NeighborRENN 这个方法就是不断的重复上述的删除过程直到无法再删除为止。 Tomek Link Removal 其思想是类别间的边缘可能增大分类难度通过去除边缘中的多数类样本可以使得类别间margin更大便于分类。具体方法是如果有两个不同类别的样本它们的最近邻都是对方也就是A的最近邻是BB的最近邻是A那么A,B就是Tomek link我们要做的就是将所有Tomek link都删除掉。那么一个删除Tomek link的方法就是将组成Tomek link的两个样本如果有一个属于多数类样本就将该多数类样本删除掉。这样我们可以发现正负样本就分得更开了。如下图所示。 3.2.2 过采样(over sampling) 即去除一些反例使得正、反例数目接近然后再进行学习 这里主要介绍两种比较经典的过采样方法。 SMOTESynthetic Minority Oversampling合成少数类过采样 SMOTE是对随机过采样方法的一个改进算法通过对少数类样本进行插值来产生更多的少数类样本。基本思想是针对每个少数类样本从它的k近邻中随机选择一个样本 该样本也是少数类中的一个然后在两者之间的连线上随机选择一点作为新合成的少数类样本。 SMOTE会随机选取少数类样本用以合成新样本而不考虑周边样本的情况这样容易带来两个问题 如果选取的少数类样本周围也都是少数类样本则新合成的样本不会提供太多有用信息。这就像支持向量机中远离margin的点对决策边界影响不大。如果选取的少数类样本周围都是多数类样本这类的样本可能是噪音则新合成的样本会与周围的多数类样本产生大部分重叠致使分类困难。 总的来说我们希望新合成的少数类样本能处于两个类别的边界附近这样往往能提供足够的信息用以分类。这就是下面的 Borderline SMOTE 算法要做的事情。 Borderline SMOTE 过程 先将所有的少数类样本分成三类1. Noise 所有的k近邻个样本都属于多数类2. Danger 超过一半的k近邻样本属于多数类3. Safe 超过一半的k近邻样本属于少数类。如下图所示。Danger类的点都在边界处以此为种子作为出发点然后用SMOTE算法产生新的样本。若选取的另一端的样本在Noise或Safe集合中则随机插值处应靠近种子样本端。 3.2.3 欠采样和过采样的结合 实际貌似并没有带来多少效果提升可能是对数据分布掺水太多 SMOTE Tomek Link RemovalSMOTE ENN 3.2.4 调整数据方法的优劣 优点 能够去除噪声/平衡类别分布在重采样后的数据集上训练可以提高某些分类器的分类性能。欠采样方法减小数据集规模可能降低模型训练时的计算开销。 缺点 采样过程计算效率低下通常使用基于距离的邻域关系通常是k-最近邻方法来提取数据分布信息这方面的计算消耗大。易被噪声影响最近邻算法容易被噪声干扰可能无法得到准确的分布信息从而导致不合理的重采样策略。过采样方法生成过多数据会进一步增大训练集的样本数量增大计算开销并可能导致过拟合。不适用于无法计算距离的复杂数据集工业数据集经常会含有类别特征如用户ID或者缺失值那难以定义合理的距离度量。 3.3 调整算法 调整算法的方法主要是修改现有的标准机器学习算法以修正他们对多数类的偏好。在这类方法中最流行的分支是代价敏感学习cost-sensitive learning。 代价敏感学习是对调整权值方法的扩展调整权重的方法通常用在二分类中但是代价敏感学习把这种思想进一步扩展可以设置代价矩阵用于多分类也可以用代价矩阵对标准算法进行改造使其适应不平衡数据的学习比如针对决策树可以将代价矩阵代入到决策阈值选择、分裂标准、剪枝这三个方面。 代价敏感学习的优点 不增加训练复杂度可直接用于多分类问题。代价敏感学习的缺点 需要领域先验知识代价矩阵需要由领域专家根据任务的先验知识提供这在许多现实问题中显然是不可用的。因此在实际应用时代价矩阵通常被直接设置为归一化的不同类别样本数量比不能保证得到最优的分类性能。 不适合某些分类器对于需要以批次训练mini-batch training方法训练的模型如神经网络少数类样本仅仅存在于在很少的批次中这会导致梯度下降更新的非凸优化过程会很快陷入鞍点使得网络无法进行有效学习。 3.4 集成方法 人多力量大总有一款集成方法适合你。这里主要介绍两种EasyEnsemble算法和BalanceCascade算法。 EasyEnsemble算法 类似Bagging的方法。每次从负例N多数类中有放回抽取出一个子集N大小同正例P少数类将每个子集N与P联合起来训练生成多个基分类器最终将这些基分类器组合形成一个集成学习系统通过加权平均或者算术平均。 BalanceCascade算法 基于Adaboost将Adaboost作为基分类器。在每一轮训练时都使用与正例P数量相等的训练集N训练出一个Adaboost基分类器然后使用该分类器对负例集合N进行预测通过控制分类阈值来控制假正例率FPR为f将N中所有判断正确的负例删除重复迭代T次。注意每一次删除后留下的比例为f则迭代T-1次后剩下的负例数量为|N|*f^(T-1)即等于正例个数|P|然后再迭代最后一次。 优点 效果通常较好没有什么问题是ensemble不能解决的如果有再多加一个base learner。根据前人经验集成学习方法仍然是解决不平衡学习问题最有效的方法。可使用迭代过程中的反馈进行动态调整BalanceCascade会在每轮迭代中丢弃那些已经被当前分类器很好地分类的多数类样本具有动态重采样的思想。 缺点 容易引入基学习器不平衡学习的缺点进一步增大计算开销BalanceCascade对噪声不鲁棒一味保留难以分类样本的策略可能导致在后期的迭代中过度拟合噪声/离群点。 4 如何选择类别不平衡中学习的评价指标 由于类别不平衡而且我们也比较关心少数类的正样本因此 可以使用聚焦于正例的PR曲线、F1值等precision的假设是分类器的阈值是0.5因此如果使用precision请注意调整分类阈值。相比之下precisionn更有意义。 注意 尽量不要用accuracy在这里没啥意义尽量不要选择ROCROC曲线对类别不平衡问题不敏感这是其优点也是其缺点。在类别不平衡情况下而且我们也比较关心少数类时ROC曲线给出的过于乐观的估计就非常具有迷惑性。如果采用ROC曲线来作为评价指标很容易因为AUC值高而忽略了少数类样本的实际分类效果其实并不理想的情况。 引用文章 《AI在工业机器视觉检测中的应用123》1.1 目标检测样本类别不平衡的问题持续更新..._ai目标物检测不准确-CSDN博客 书机器学习。周志华
http://www.pierceye.com/news/132367/

相关文章:

  • 保定网站建设公司哪家好酒店网站建设必要性
  • 电子商务网站建设设计报告建网站免费软件
  • 广州高端优秀网站改版设计公司网页编辑框
  • 摄影网站的需求分析wordpress英文版变成中文版
  • 网站营销公司wordpress 无效的文章类型
  • 网站一级页面标题怎么做茶网站设计素材下载
  • 网站建设费用计入什么科目淘宝网站开发店铺什么类别
  • 四川平昌县建设局网站怎么把网站维护
  • 成都教育行业网站建设工业和信息化部反诈中心发短信
  • 高端开发网站系统网页设计与制作教程课后题答案
  • 网站制作的困难与解决方案无极在线最新招聘
  • 做设计比较好的网站推荐郑州做网站企起
  • 手机版自适应网站怎么做春节网页设计素材网站
  • 中国建设教育协会网站培训中心网站建设怎么报价表
  • 网站建设与推广好做吗wordpress+模板+国外
  • 建网站免费空间哪有做logo的网站
  • 找外包做网站要多久网站导航栏条源码
  • php网站开发实践襄樊seo排名
  • 衡水住房和城乡建设局网站939网站建设
  • 晋江网站建设价格中国建筑人才网证书查询
  • 国内永久免费crm系统网站推荐做网站需要学些什么软件
  • 做网站 怎么备案怎么用qq相册做网站
  • 网站建设 公众号免费的网站怎么做
  • 深圳公司网站设计公太原企业网站建设
  • 营销型网站的分类公众号开发信息什么意思
  • 爱写作网站最佳wordpress主机
  • 东山网站制作一站式做网站费用
  • seo针对网站做策划外贸淘宝网站建设
  • 电商网站的建设与运营百度推广营销怎么做
  • 做网站的核验单 是下载的吗北京建设工程招标公告网站