当前位置: 首页 > news >正文

我市精神文明建设的门户网站做网站需要写代码

我市精神文明建设的门户网站,做网站需要写代码,网站建设能给客户带来什么,wordpress外贸网站源码Python 实现梯度下降算法 最近重新回顾了一下机器学习的基础知识#xff0c;关于梯度下降的知识#xff0c;个人认为看懂原理和公式#xff0c;仅仅是一方面#xff0c;如果能从代码的角度重新实现或者走一遍可能会更加记忆深刻#xff0c;下面两个参考链接讲的就非常好关于梯度下降的知识个人认为看懂原理和公式仅仅是一方面如果能从代码的角度重新实现或者走一遍可能会更加记忆深刻下面两个参考链接讲的就非常好大家一块来学习呀。 相关参考 [1] 深入浅出–梯度下降法及其实现 [2] python写出梯度下降的代码 Python实现版本 [1] import numpy as npm 20 # Size of the points dataset.X0 np.ones((m, 1)) # Points x-coordinate and dummy value (x0, x1). X1 np.arange(1, m 1).reshape(m, 1) X np.hstack((X0, X1))y np.array([ # Points y-coordinate3, 4, 5, 5, 2, 4, 7, 8, 11, 8, 12,11, 13, 13, 16, 17, 18, 17, 19, 21 ]).reshape(m, 1)alpha 0.01 # The Learning Rate alpha.def error_function(theta, X, y):Error function J definition.diff np.dot(X, theta) - yreturn (1. / 2 * m) * np.dot(np.transpose(diff), diff)def gradient_function(theta, X, y):Gradient of the function J definition.diff np.dot(X, theta) - yreturn (1. / m) * np.dot(np.transpose(X), diff)def gradient_descent(X, y, alpha):Perform gradient descent.theta np.array([1, 1]).reshape(2, 1)gradient gradient_function(theta, X, y)while not np.all(np.absolute(gradient) 1e-5):theta theta - alpha * gradientgradient gradient_function(theta, X, y)return thetaoptimal gradient_descent(X, y, alpha) error error_function(optimal, X, y)[0, 0] print(optimal:, optimal) print(error function:, error)Python实现版本 [2] import numpy as npiterations 1000 # 定义迭代次数和学习率 alpha 0.1 # 学习率 m 100 # 数据长度def compute_error(X, y, theta): # 定义损失函数predictions np.dot(X, theta)sqrErrors (predictions - y) ** 2J 1 / (2 * m) * np.sum(sqrErrors)return Jdef compute_gradient(theta, X, y): # 梯度更新predictions np.dot(X, theta)errors predictions - ytheta theta - alpha / m * np.dot(X.T, errors)return thetadef gradient_descent(X, y, theta, num_iters): # 梯度下降算法J_history np.zeros((num_iters, 1)) # 记录损失函数for i in range(num_iters):theta compute_gradient(theta, X, y)J_history[i] compute_error(X, y, theta)return theta, J_history# 测试代码 x 2 * np.random.rand(m, 1) # 随机生成一些数据 y 100 3 * x np.random.randn(m, 1) X_b np.c_[np.ones((m, 1)), x] # 在数据中添加x01 theta np.random.randn(2, 1) # 初始化theta theta, J_history gradient_descent(X_b, y, theta, iterations) # 运行梯度下降算法 print(最终参数值, theta) # 输出最终结果 print(损失函数值, J_history[-1])声明 总结学习有问题或不当之处可以批评指正哦谢谢。
http://www.pierceye.com/news/606785/

相关文章:

  • 网站销售方案英文淘宝网站建设
  • wordpress双语网站微信二次开发
  • 公司的网站建设做什么费用尚海整装公司电话
  • 贵阳市建设厅官方网站官方网站开发需要几个技术人员
  • 电子政务网站模版科学规划网页的做法是
  • 昆明网站建设猫咪科技抚州网站建设
  • 山东网站建设运行工资做的很漂亮的网站
  • 网站免费源码大全无用下载淘宝支持做微交易网站吗
  • 常用网站推广方法石家庄营销网站建设价格
  • 网站界面设计的基本原则是什么论坛做视频网站
  • 学校网站总务建设怎么做网站流量竞品分析
  • 企业网站建设所需要的资料网站备案 icp备案
  • 商城类网站方案中国风 wordpress主题
  • 网站更换服务器教程南阳网站推广招聘
  • 海尔网站的建设目标四库一平台个人信息查询
  • 佛山市建设网站公司网站手机端和电脑端
  • 属于c2c的网站是重庆化工建设信息网站
  • 高端大气网站推荐网赌网站建设多少钱
  • 宁波网站关键词优化排名网站修改图片怎么做
  • 苏州网站建设案例购买网站域名
  • 自己做剧本网站重庆建设工业公司官网
  • 中国网站建设中心建网站和开发软件哪个难
  • 优化网站被百度屏阿里云网站备案核验单
  • 肇庆做网站哪家好河北建设工程信息网正规网站
  • 怎么做展示网站公司网站管理规定
  • 娄底网站制作备案号查询平台
  • 青岛网站排名方案优化的定义
  • 微网站开发外包杨浦做网站公司
  • 网站推广服务包括哪些个人简历网官网免费
  • 铜仁住房和城乡建设局网站安贞做网站公司