当前位置: 首页 > news >正文

销售网站怎么做的在青岛建网站

销售网站怎么做的,在青岛建网站,广告关键词查询,宣传册设计公司优化超参数始终是确保模型性能最佳的关键任务。通常#xff0c;网格搜索、随机搜索和贝叶斯优化等技术是主要使用的方法。 今天分享几个常用于模型超参数优化的 Python 工具包#xff0c;如下所示#xff1a; scikit-learn#xff1a;使用在指定参数值上进行的网格搜索或…优化超参数始终是确保模型性能最佳的关键任务。通常网格搜索、随机搜索和贝叶斯优化等技术是主要使用的方法。 今天分享几个常用于模型超参数优化的 Python 工具包如下所示 scikit-learn使用在指定参数值上进行的网格搜索或随机搜索。HyperparameterHunter构建在scikit-learn之上以使其更易于使用。Optuna使用随机搜索、Parzen估计器TPE和基于群体的训练。Hyperopt使用随机搜索和TPE。Talos构建在Keras之上以使其更易于使用。 技术交流 技术要学会分享、交流不建议闭门造车。一个人可以走的很快、一堆人可以走的更远。 本文由粉丝群小伙伴总结与分享如果你也想学习交流资料获取均可加交流群获取群友已超过2000人添加时最好的备注方式为来源兴趣方向方便找到志同道合的朋友。 方式①、添加微信号dkl88194备注来自CSDN 加群 方式②、微信搜索公众号Python学习与数据挖掘后台回复加群 现在让我们看一些使用这些库进行自动编码器模型超参数优化的Python代码示例 from keras.layers import Input, Dense from keras.models import Model# define the Autoencoder input_layer Input(shape(784,)) encoded Dense(32, activationrelu)(input_layer) decoded Dense(784, activationsigmoid)(encoded) autoencoder Model(input_layer, decoded) autoencoder.compile(optimizeradam, lossbinary_crossentropy) autoencoder.fit(X_train, X_train, epochs100, batch_size256, validation_data(X_test, X_test))scikit-learn from sklearn.model_selection import GridSearchCV# define the parameter values that should be searched param_grid {batch_size: [64, 128, 256], epochs: [50, 100, 150]}# create a KFold cross-validator kfold KFold(n_splits10, random_state7)# create the grid search object grid GridSearchCV(estimatorautoencoder, param_gridparam_grid, cvkfold)# fit the grid search object to the training data grid_result grid.fit(X_train, X_train)# print the best parameters and the corresponding score print(fBest parameters: {grid_result.best_params_}) print(fBest score: {grid_result.best_score_})HyperparameterHunter import HyperparameterHunter as hh# create a HyperparameterHunter object hunter hh.HyperparameterHunter(input_dataX_train, output_dataX_train, model_wrapperhh.ModelWrapper(autoencoder))# define the hyperparameter search space hunter.setup(objectiveval_loss, metricval_loss, optimization_modeminimize, max_trials100) hunter.add_experiment(parametershh.Real(0.1, 1, namelearning_rate, digits3, rounding4)) hunter.add_experiment(parametershh.Real(0.1, 1, namedecay, digits3, rounding4))# perform the hyperparameter search hunter.hunt(n_jobs1, gpu_id0)# print the best hyperparameters and the corresponding score print(fBest hyperparameters: {hunter.best_params}) print(fBest score: {hunter.best_score})Hyperopt from hyperopt import fmin, tpe, hp# define the parameter space param_space {batch_size: hp.quniform(batch_size, 64, 256, 1), epochs: hp.quniform(epochs, 50, 150, 1)}# define the objective function def objective(params):autoencoder.compile(optimizeradam, lossbinary_crossentropy)autoencoder.fit(X_train, X_train, batch_sizeparams[batch_size], epochsparams[epochs], verbose0)scores autoencoder.evaluate(X_test, X_test, verbose0)return {loss: scores, status: STATUS_OK}# perform the optimization best fmin(objective, param_space, algotpe.suggest, max_evals100)# print the best parameters and the corresponding score print(fBest parameters: {best}) print(fBest score: {objective(best)})Optuna import optuna# define the objective function def objective(trial):batch_size trial.suggest_int(batch_size, 64, 256)epochs trial.suggest_int(epochs, 50, 150)autoencoder.compile(optimizeradam, lossbinary_crossentropy)autoencoder.fit(X_train, X_train, batch_sizebatch_size, epochsepochs, verbose0)score autoencoder.evaluate(X_test, X_test, verbose0)return score# create the Optuna study study optuna.create_study()# optimize the hyperparameters study.optimize(objective, n_trials100)# print the best parameters and the corresponding score print(fBest parameters: {study.best_params}) print(fBest score: {study.best_value})Talos import talos# define the parameter space param_space {learning_rate: [0.1, 0.01, 0.001], decay: [0.1, 0.01, 0.001]}# define the objective function def objective(params):autoencoder.compile(optimizeradam, lossbinary_crossentropy, lrparams[learning_rate], decayparams[decay])history autoencoder.fit(X_train, X_train, epochs100, batch_size256, validation_data(X_test, X_test), verbose0)score history.history[val_loss][-1]return score# perform the optimization best talos.Scan(X_train, X_train, paramsparam_space, modelautoencoder, experiment_nameautoencoder).best_params(objective, n_trials100)# print the best parameters and the corresponding score print(fBest parameters: {best}) print(fBest score: {objective(best)})
http://www.pierceye.com/news/581964/

相关文章:

  • 领手工在家做的网站2019网页设计与实现论文
  • 兰州微信信息平台网站建设绍兴本地网站建设
  • 关于旅游网站策划书千锋前端培训多少钱
  • 温州网站建设结构做代练网站能备案
  • 零基础学习做网站第三方装修评估公司
  • 基础微网站开发动态网站彩票投注员做啥的
  • 西安做网站设计公司爱做网站免费版
  • 效果图网站接单重庆一般建一个网站需要多少钱
  • 网站建设征求意见稿辅料企业网站建设费用
  • 上海网站建设公司服务沅江网站制作
  • 公司网站开发费用计入什么科目虚拟主机怎么建网站
  • 天津网站建设技术网页设计与制作教程版徐洪亮课后答案
  • 旅游网站建设方案简介用asp做的网站打开页面很慢
  • 做影视网站 片源从哪里来做自媒体的上那些网站
  • 邢台网站开发百度云 做网站
  • 淘宝优惠劵网站建设wordpress主题 简洁
  • 自己做电影资源网站揭阳新闻最新消息
  • 北碚免费建站哪家做得好佛山网站建设设计
  • 怎么做网站拍卖的那种wordpress主题搜索图标
  • 三亚网站建设平台查数据的权威网站
  • html网站制作答辩ppt网站备份和备案的区别
  • 网站开发需要工具免费的ps软件
  • 常州网站建设优质商家重庆互联网怎么样
  • 做网站发广告动漫网页设计报告
  • 求职招聘网站建设投标书沈阳网站建设的公司哪家好
  • 做导航网站有发展吗南京企业网站制作哪家好
  • 千万pv网站开发成本招聘网站数建设
  • 吐鲁番大型网站建设平台找客户去哪个平台
  • 权威网站有哪些给个网站可以在线
  • 优化网站专题北京海淀网站建设公司