当前位置: 首页 > news >正文

帝国cms做视频网站光伏项目建设背景

帝国cms做视频网站,光伏项目建设背景,义乌互联网公司,平台建设上线网站概念#xff1a; 交叉验证法#xff0c;就是把一个大的数据集分为 k个小数据集#xff0c;其中 k − 1 个作为训练集#xff0c;剩下的 1 个作为测试集#xff0c;在训练和测试的时候依次选择训练集和它对应的测试集。这种方法也被叫做 k 折交叉验证法#xff08;k-fold…概念 交叉验证法就是把一个大的数据集分为 k个小数据集其中 k − 1 个作为训练集剩下的 1  个作为测试集在训练和测试的时候依次选择训练集和它对应的测试集。这种方法也被叫做 k 折交叉验证法k-fold cross validation。最终的结果是这 k 次验证的均值。   十折交叉验证是将训练集分割成10个子样本一个单独的子样本被保留作为验证模型的数据其他9个样本用来训练。交叉验证重复10次每个子样本验证一次平均10次的结果或者使用其它结合方式最终得到一个单一估测。这个方法的优势在于同时重复运用随机产生的子样本进行训练和验证每次的结果验证一次10次交叉验证是最常用的。   此外还有一种交叉验证方法就是 留一法Leave-One-Out简称LOO顾名思义就是使 k 等于数据集中数据的个数每次只使用一个作为测试集剩下的全部作为训练集这种方法得出的结果与训练整个测试集的期望值最为接近但是成本过于庞大。   在机器学习领域n折交叉验证n是数据集中样本的数目被称为留一法。我们已经提到留一法的一个优点是每次迭代中都使用了最大可能数目的样本来训练。另一个优点是该方法具有确定性。 我们用SKlearn库来实现一下LOO from sklearn.model_selection import LeaveOneOut# 一维示例数据 data_dim1 [1, 2, 3, 4, 5]# 二维示例数据 data_dim2 [[1, 1, 1, 1],[2, 2, 2, 2],[3, 3, 3, 3],[4, 4, 4, 4],[5, 5, 5, 5]]loo LeaveOneOut() # 实例化LOO对象# 取LOO训练、测试集数据索引 for train_idx, test_idx in loo.split(data_dim1):# train_idx 是指训练数据在总数据集上的索引位置# test_idx 是指测试数据在总数据集上的索引位置print(train_index: %s, test_index %s % (train_idx, test_idx))# 取LOO训练、测试集数据值 for train_idx, test_idx in loo.split(data_dim1):# train_idx 是指训练数据在总数据集上的索引位置# test_idx 是指测试数据在总数据集上的索引位置train_data [data_dim1[i] for i in train_idx]test_data [data_dim1[i] for i in test_idx]print(train_data: %s, test_data %s % (train_data, test_data))data_dim1的输出 train_index: [1 2 3 4], test_index [0] train_index: [0 2 3 4], test_index [1] train_index: [0 1 3 4], test_index [2] train_index: [0 1 2 4], test_index [3] train_index: [0 1 2 3], test_index [4]train_data: [2, 3, 4, 5], test_data [1] train_data: [1, 3, 4, 5], test_data [2] train_data: [1, 2, 4, 5], test_data [3] train_data: [1, 2, 3, 5], test_data [4] train_data: [1, 2, 3, 4], test_data [5]data_dim2的输出 train_index: [1 2 3 4], test_index [0] train_index: [0 2 3 4], test_index [1] train_index: [0 1 3 4], test_index [2] train_index: [0 1 2 4], test_index [3] train_index: [0 1 2 3], test_index [4]train_data: [[2, 2, 2, 2], [3, 3, 3, 3], [4, 4, 4, 4], [5, 5, 5, 5]], test_data [[1, 1, 1, 1]] train_data: [[1, 1, 1, 1], [3, 3, 3, 3], [4, 4, 4, 4], [5, 5, 5, 5]], test_data [[2, 2, 2, 2]] train_data: [[1, 1, 1, 1], [2, 2, 2, 2], [4, 4, 4, 4], [5, 5, 5, 5]], test_data [[3, 3, 3, 3]] train_data: [[1, 1, 1, 1], [2, 2, 2, 2], [3, 3, 3, 3], [5, 5, 5, 5]], test_data [[4, 4, 4, 4]] train_data: [[1, 1, 1, 1], [2, 2, 2, 2], [3, 3, 3, 3], [4, 4, 4, 4]], test_data [[5, 5, 5, 5]]使用sklearn库的KFold模块进行随机森林十折交叉验证 from sklearn.ensemble import RandomForestClassifier from sklearn.model_selection import cross_val_score, KFold from sklearn.datasets import load_iris# 加载数据集以鸢尾花数据集为例 iris load_iris() X iris.data y iris.target# 创建随机森林分类器 rf_classifier RandomForestClassifier(n_estimators100)# 创建十折交叉验证对象 kfold KFold(n_splits10)# 执行十折交叉验证 scores cross_val_score(rf_classifier, X, y, cvkfold)# 输出每折的准确率 for i, score in enumerate(scores):print(Fold {}: {:.4f}.format(i1, score))# 输出平均准确率 print(Average Accuracy: {:.4f}.format(scores.mean()))代码解释 在上述代码中 首先导入了RandomForestClassifier随机森林分类器、cross_val_score交叉验证函数、KFold交叉验证生成器和load_iris加载鸢尾花数据集等必要的模块和函数。 然后我们加载了鸢尾花数据集并将特征数据赋值给X目标变量赋值给y。 接下来我们创建了一个随机森林分类器对象rf_classifier并指定了树的数量为100。 然后我们创建了一个KFold对象kfold其中n_splits参数指定了将数据集分成几个折这里是十折。 最后我们使用cross_val_score函数进行十折交叉验证传入随机森林分类器对象、特征数据X和目标变量y并指定交叉验证对象为kfold。函数将返回每个折的准确率。 最后我们遍历输出每折的准确率并计算并输出平均准确率。 请注意以上代码只是一个示例并假设您已经安装了scikit-learn库。您可以根据自己的数据集和需求进行适当的修改。 错误分析 在实验中遇到了结果为负数的情况分析了原因如下。 Fold 1: -276.8099 Fold 2: -273.9000 Fold 3: -352.8485 Fold 4: -341.5226 Fold 5: -303.3925 Fold 6: -121.9296 Fold 7: -119.7461 Fold 8: -232.8983 Fold 9: -366.5070 Fold 10: -300.5332 Average Accuracy: -269.0088根据以上结果准确率的值为负数这在一般情况下是不可能的因为准确率的范围通常是0到1之间。负数的准确率可能是由于以下原因之一导致的 评估指标选择错误可能是您在计算准确率时选择了错误的评估指标。在cross_val_score函数中默认情况下使用了分类问题的准确率评估指标但如果您的问题是回归问题那么准确率评估指标不适用。请确保您选择了适当的评估指标。 数据标签处理错误检查一下您的目标变量y的标签是否被正确处理。如果目标变量的标签是连续值而不是分类值并且您错误地将其用作分类变量进行训练和评估那么会导致不正常的结果。确保目标变量是分类变量并且其标签被正确地映射到类别。 数据集划分错误在执行交叉验证时确保数据集的划分是正确的。可能存在数据泄漏或未正确随机化数据的问题。使用KFold对象进行交叉验证时确保数据的划分是随机且平衡的。 数据预处理错误在应用随机森林算法之前对数据进行预处理是很重要的。请确保数据被正确地缩放、编码或进行其他必要的预处理步骤。特别是对于包含连续值特征的数据可能需要进行标准化或归一化处理。 请检查上述可能导致不正常结果的因素并确保数据处理和代码逻辑的正确性。如果问题仍然存在请提供更多的代码和数据细节以便更好地理解问题并提供帮助。 根据以上结果准确率的值看起来非常不正常。这个问题可能是由于数据处理或代码逻辑上的错误导致的。下面是一些可能导致此问题的原因 数据处理错误请确保您的特征数据X和目标变量y被正确加载和处理。检查数据的维度、数据类型和缺失值等问题。确保特征数据和目标变量的数量和顺序匹配。 参数设置错误在随机森林分类器的初始化中可能存在一些参数设置错误。例如n_estimators参数指定了树的数量确保它设置为一个合理的值。还要注意其他与随机森林相关的参数如max_depth、min_samples_split等以确保它们适合您的数据集。 交叉验证错误在创建KFold对象时确保n_splits参数设置为一个合理的值通常使用10作为常见选择。还要注意交叉验证的策略例如随机性的控制和数据是否被正确划分。 代码逻辑错误请确保您的代码逻辑正确特别是在执行交叉验证和计算准确率时。确认代码中没有引入额外的错误。 建议您仔细检查代码和数据处理的每个步骤并根据需要进行调试和修改。确保数据加载正确、模型参数设置合理并正确执行交叉验证和准确率计算。如果问题仍然存在提供更多的代码和数据细节可能有助于进一步的排查。
http://www.pierceye.com/news/641514/

相关文章:

  • 网站改版提交河北建设工程信息网官
  • 建站宝盒v8破解版下载菜鸟怎么做网站
  • 网站建设课程 考核目的wordpress注册确认信
  • 建设银行网站公告2022国内外重大新闻事件10条
  • 门户网站建设 简报电子工程信息建设网
  • 竞价网站模板网站模板小偷
  • 怎么做视频网站网站建设设计基础
  • 惠州网站建设公司曾做网站需要学习什么知识
  • 网站制作里面链接怎么做建网站要什么工做人员
  • 网站建设费用 会计分录网站用哪些系统做的好
  • 免费建立一个个人网站网站模板怎么引用
  • 网站推广软文公司wordpress里面备份功能在哪里
  • 贵州整站优化seo平台网站建设与开发英文文献
  • 江干区住房和城乡建设局网站北京网站开发的趋势在哪里
  • 无锡网站建设选千客云网络简单网站建设推荐
  • 设计网站推荐百度贴吧带搜索的下拉框网站
  • 长春站最新发布网站开发税费
  • 北京通州住房和城乡建设部网站网站开发运营服务合同
  • 建设网站的服务端口国外用python做的网站
  • 如何实现网站生成网页手机端网站建设的注意事项
  • 澄迈网站新闻建设哪个公司建设网站
  • 怎么免费做文学网站wordpress下载及使用说明
  • 大学做兼职英语作文网站中国建筑人才培训网
  • 健康养老网站建设展馆展厅设计效果图
  • 做甜品网站的需求分析wordpress手机移动主题
  • 大兴企业官方网站建设wordpress 电话登记插件
  • 织梦网站搜索怎么做爱拍怎么创建wordpress
  • 阿里云多网站建设绵阳专门做网站的公司有哪些
  • 网站推广的基本方法对于大部分网站来说都是适用的深圳华强北网站建设
  • 网校网站毕业设计的方案网站如何做外链教程视频