当前位置: 首页 > news >正文

服务佳的小企业网站建设智慧团建pc端入口

服务佳的小企业网站建设,智慧团建pc端入口,wordpress app 服务端,昆明做网站竞价非线性回归#xff08;Non-linear Regression#xff09; 1.概率: 1.1定义概率Probability:对一件事情发生的可能性的衡量 1.2范围 0P1 1.3计算方法: 1.3.1根据个人置信 1.3.2根据历史数据 1.3.3根据模拟数据 1.4条件概率:#xff08;A发生的条件下B发生的概率Non-linear Regression 1.概率: 1.1定义概率Probability:对一件事情发生的可能性的衡量 1.2范围 0P1 1.3计算方法: 1.3.1根据个人置信 1.3.2根据历史数据 1.3.3根据模拟数据 1.4条件概率:A发生的条件下B发生的概率 逻辑回归Logistic Regression x∈-∞∞y∈0,1 2.1举例肿瘤良恶性 画出线性回归线计算h(x)值若大于0.5则认为是Malignant恶性. 特殊例子出现一个偏离较大的数值 h(x)0.5恶性Malignant1 再重新模拟后的线性方程就无法准确分类了 2.2基本模型 测试数据为 X(x0,x1,x2...xn)X(x_0, x_1, x_2...x_n) X(x0​,x1​,x2​...xn​) 要学习的参数为: θ(θ0,θ1,θ2...θn)θ可以是一个向量θ(θ_0, θ_1, θ_2... θ_n) θ可以是一个向量 θ(θ0​,θ1​,θ2​...θn​)θ可以是一个向量 向量表示:θ^T 为一列排列的θ 处理二值数据引入Sigmoid函数时曲线平滑化 预测函数 θ为参数X为自变量 用概率表示 正例(y1)对于给定的一组数据自变量和一组参数y1的概率 反例y0对于给定的一组数据自变量和一组参数y0的概率 2.3 Cost函数 线性回归: y(i)y^{(i)}y(i)为实例的值x(i)x^{(i)}x(i)为每一个实例的自变量求出的hθ(x(i))h_θ(x^{(i)})hθ​(x(i))即为预测值y_hat 找到合适的θ_0θ_1使_上式最小求导数使其为0即可求得 Logistic regression: Cost函数: 使用对数log的原因对数是个增函数很容易求出最大值和最小值对原函数最大/最小化和对原函数它的对数最大化和最小化是一样的可以使运算简单很多 下方程由上面两个方程合成得到分y1和y0 目标: 找到合适的θ_0θ_1使_上式J(θ)最小求导数使其为0即可求得 方法数学上一般对其变量求偏导是其偏导等于0 2.4解法:梯度下降(gradient decent) 一个计算机中非常重要的算法 梯度下降法是用负梯度方向为搜索方向的最速下降法越接近目标值步长越小前进越慢。可以用于求解非线性方程组。 梯度下降法的计算过程就是沿梯度下降的方向求解极小值。 求偏导求出斜率找到曲面的最低点 以θ对J求导数α为学习率可能会随时变更 更新法则化简上式后i上标表示不同的实例 同时对所有的θ进行更新 重复更新直到收敛低于设置的预测值一般为local minimum or global minimum 非线性回归实例应用Logistic Regression Application import numpy as np import randomdef gradient_descent(x, y, theta, alpha, m, iteration_times):m denotes the number of examples here, not the number of featuresParameters----------------x: 实例y: 分类标签theta: 要学习的参数θalpha: learning ratem: 更新法则公式中实例的个数对应示例数组shape[0]iteration_times: 使用此方法循环训练更新的次数for i in range(0, iteration_times):hypothesis np.dot(x, theta) # h(x) x·θθ的shape已转换为能和x点乘x无需转置每次更新完后θ会发生变化loss hypothesis - y # hypothesis其实就是y_hat估计值h(x),这里loss就等于y_hat减去y(实际)# avg cost per example (the 2 in 2*m doesnt really matter here.# But to be consistent with the gradient, I include it)cost对精确度的衡量会随着gradient descent的次数减小cost np.sum(loss ** 2) / (2 * m) # 这里的cost函数与课文中提到的cost函数不一样这里使用了一个简单的cost便于计算和展示print(Iteration:%d|cost:%f % (i, cost))# avg gradient per examplegradient np.dot(loss.T, x) / m # loss·x (h(x)-y)·x使用矩阵形式同时对所有x执行运算loss要转置一下theta要求平均值# updatetheta theta - alpha * gradient # 即更新法则的公式θθ-α∑(h(x)-y)xreturn theta# 产生测试拟合的数据 def gen_data(num_points, bias, variance):Parameters---------num_points:实例数bias:生成y时产生一个偏差值variance:方差x np.zeros(shape(num_points, 2))y np.zeros(shapenum_points)# basically a straight linefor i in range(0, num_points):# bias featurex[i][0] 1x[i][1] i# target variabley[i] (i bias) random.uniform(0, 1) * variance # random.uniform(0,1)[0, 1)均匀分布同random.random()产生0~1随机数return x, ydef main():# generate 100 points with a bias of 25 and 10 variance as a bit of noisex, y gen_data(100, 25, 10)print(x)print(y)m, n np.shape(x) # x是二维数组行数赋值给m列数赋值为na np.shape(y) # y是1维的数组只会一个数值print(m, n) # (100行2列) 2维数组100行2列print(a) # (100) 1维数组100个数值iteration_times 100000alpha 0.0005 # 取0~1比较好的算法会设置开始的alpha数值较大后期数值较小theta np.ones(n) # 初始化θ[1. 1.] 初始时x的值认为是h(x)的值theta gradient_descent(x, y, theta, alpha, m, iteration_times)print(theta) # 约为[30 1]# 得出的theta就可以用于对新实例的计算和预测# 回归算法和神经网络中都会用到此梯度下降的方法if __name__ __main__:main()
http://www.pierceye.com/news/617118/

相关文章:

  • 兰州北山生态建设局网站今天重大新闻2021
  • 民权网站建设用别人服务器做网站
  • 周口网站建设 网站制作 网络推广wordpress4.0安装教程
  • 长治市建设局网站自己做网站的优势
  • 网站管理与维护的优势php 做视频网站
  • 建设部网站业绩补录商河 网站建设
  • 网站页面设计考虑要素建站知识
  • 打电话叫人做网站城阳网站制作
  • 网页制作素材网站推荐软件开发属于什么专业类别
  • 淘宝做基础销量怎么网站中国十大培训机构影视后期
  • 网站平台是怎么做财务的兴盛优选购物平台下载
  • 网站备案是给什么进行备案seo如何优化关键词上首页
  • 怎么用qq邮箱做网站做网站一般注册哪几类商标
  • 建设银行网站未响应海外网网址
  • 安防监控网站模板忻州市建设厅网站首页
  • 建网站需要什么条件网站运行费用预算
  • 网站建设打广告网站翻页代码
  • 自己怎么免费做网站平面设计师赚钱吗
  • 南宁建站模板源码公众号开发用什么技术
  • 北京自助建站软件软件外包公司的优势和劣势
  • 网页 代码怎么做网站建设规划展览馆网站的优势
  • 山西省建设主管部门网站单位网站建设意义
  • 怎么建设自己收费网站电影网站建设费用
  • 黑龙江建设网一体化平台seo网站关键词优化价格
  • 西宁做网站公司电话找公司网站建设
  • 有哪些企业可以做招聘的网站机械网站开发方案
  • 九江专业网站建设定制千库网免费素材图库
  • wordpress云建站太仓网站建设网站推广
  • 辽宁网站推广的目的西安企业做网站多少钱
  • 重庆微信网站建设网站平台网站怎么做