当前位置: 首页 > news >正文

做网站开发怎么接单怎样下载免费的ppt模板

做网站开发怎么接单,怎样下载免费的ppt模板,的wordpress主机名,wordpress个性化小图标文章目录 可选实验室#xff1a;神经元和层包无激活神经元-回归/线性模型Sigmoid激活的神经元祝贺 可选实验室#xff1a;神经元和层 实验室将探索神经元和层的内部工作原理#xff0c;特别是将课程1中掌握的模型#xff0c;即回归/线性模型和逻辑斯蒂模型#xff0c;与之… 文章目录 可选实验室神经元和层包无激活神经元-回归/线性模型Sigmoid激活的神经元祝贺 可选实验室神经元和层 实验室将探索神经元和层的内部工作原理特别是将课程1中掌握的模型即回归/线性模型和逻辑斯蒂模型与之进行对比。本实验室将介绍Tensorflow并演示这些模型是如何在该框架中实现的。 包 Tensorflow和Keras Tensorflow是谷歌开发的机器学习包。2019年谷歌将Keras集成到Tensorflow中并发布了Tensorflow 2.0。Keras是一个由franois Chollet独立开发的框架它为Tensorflow创建了一个简单的、以层为中心的接口。本课程将使用Keras接口。 import numpy as np import matplotlib.pyplot as plt import tensorflow as tf from tensorflow.keras.layers import Dense, Input from tensorflow.keras import Sequential from tensorflow.keras.losses import MeanSquaredError, BinaryCrossentropy from tensorflow.keras.activations import sigmoid from lab_utils_common import dlc from lab_neurons_utils import plt_prob_1d, sigmoidnp, plt_linear, plt_logistic plt.style.use(./deeplearning.mplstyle) import logging logging.getLogger(tensorflow).setLevel(logging.ERROR) tf.autograph.set_verbosity(0)后两行代码的含义是设置 TensorFlow 的日志级别将 TensorFlow 的日志级别设置为 ERROR 级别从而只记录 ERROR 级别及以上的日志信息不记录更低级别的日志信息。 另外tf.autograph.set_verbosity(0)这行代码是设置 AutoGraph 的日志级别将 AutoGraph 的日志级别设置为 0表示不输出任何日志信息。 AutoGraph 是 TensorFlow 中用于将普通 Python 代码转换成 TensorFlow 计算图的工具设置日志级别为 0 可以关闭 AutoGraph 的日志输出减少不必要的输出信息。 无激活神经元-回归/线性模型 数据集 我们将使用课程一的例子房价的线性回归。 X_train np.array([[1.0], [2.0]], dtypenp.float32) #(size in 1000 square feet) Y_train np.array([[300.0], [500.0]], dtypenp.float32) #(price in 1000s of dollars)fig, ax plt.subplots(1,1) ax.scatter(X_train, Y_train, markerx, cr, labelData Points) ax.legend( fontsizexx-large) ax.set_ylabel(Price (in 1000s of dollars), fontsizexx-large) ax.set_xlabel(Size (1000 sqft), fontsizexx-large) plt.show()回归/线性模型 未激活的神经元实现的函数与课程1线性回归相同: 我们可以用一个神经元或单元定义一个层并将其与熟悉的线性回归函数进行比较。 linear_layer tf.keras.layers.Dense(units1, activation linear, )在这里linear’激活函数的作用是保持输出与输入之间的线性关系。在神经网络中每个层的输出通常会通过一个激活函数来进行非线性变换以提供网络学习非线性关系的能力。然而当我们希望保持线性关系时可以选择使用’linear’激活函数它实际上仅仅是一个恒等函数不会对输入进行任何改变。 在这种情况下Dense层实际上只是执行矩阵相乘和偏置加法没有经过任何非线性变换因此输出与输入之间的关系仍然是线性的。这在某些回归任务或特定的网络架构中可能是有用的。 我们来看看权重。 linear_layer.get_weights()没有权重因为权重尚未实例化。 让我们在X_train的一个例子上试试这个模型。 这将触发权重的实例化。 注意图层的输入必须是二维的所以我们将重塑它。 a1 linear_layer(X_train[0].reshape(1,1)) print(a1)结果是一个形状为1,1或一个条目的张量数组的另一个名称。现在让我们来看看权重和偏差。这些权重被随机初始化为较小的数字并且偏置默认被初始化为零。 w, b linear_layer.get_weights() print(fw {w}, b{b})具有单个输入特征的线性回归模型1将具有单个权重和偏差。这与我们上面1层的尺寸相匹配。 权重被初始化为随机值所以让我们将它们设置为一些已知值。 set_w np.array([[200]]) set_b np.array([100])# set_weights takes a list of numpy arrays linear_layer.set_weights([set_w, set_b]) print(linear_layer.get_weights())让我们将方程(1)与层输出进行比较。 a1 linear_layer(X_train[0].reshape(1,1)) print(a1) alin np.dot(set_w,X_train[0].reshape(1,1)) set_b print(alin)可以看出无论是用参数设置好的模型计算还是用点积运算得到的结果是一样的。 它们产生相同的值!现在我们可以使用我们的线性层对我们的训练数据进行预测。 prediction_tf linear_layer(X_train) prediction_np np.dot( X_train, set_w) set_bplt_linear(X_train, Y_train, prediction_tf, prediction_np)Sigmoid激活的神经元 具有Sigmoid激活的神经元/单元实现的功能与课程1中的逻辑回归相同 让我们设置和并检查模型。 数据集 我们将使用课程1中的一个例子逻辑回归。 X_train np.array([0., 1, 2, 3, 4, 5], dtypenp.float32).reshape(-1,1) # 2-D Matrix Y_train np.array([0, 0, 0, 1, 1, 1], dtypenp.float32).reshape(-1,1) # 2-D Matrixpos Y_train 1 neg Y_train 0 X_train[pos]pos Y_train 1 neg Y_train 0fig,ax plt.subplots(1,1,figsize(4,3)) ax.scatter(X_train[pos], Y_train[pos], markerx, s80, c red, labely1) ax.scatter(X_train[neg], Y_train[neg], markero, s100, labely0, facecolorsnone, edgecolorsdlc[dlblue],lw3)ax.set_ylim(-0.08,1.1) ax.set_ylabel(y, fontsize12) ax.set_xlabel(x, fontsize12) ax.set_title(one variable plot) ax.legend(fontsize12) plt.show()逻辑神经元 我们可以通过添加Sigmoid激活来实现“逻辑神经元”。神经元的功能然后由上面的2描述。 本节将创建一个Tensorflow模型该模型包含我们的逻辑层以演示创建模型的替代方法。Tensorflow最常用于创建多层模型。序列模型是构建这些模型的一种方便方法。 model Sequential([tf.keras.layers.Dense(1, input_dim1, activation sigmoid, nameL1)] )model.summary显示模型中的层和参数数量。该模型中只有一个层而该层只有一个单元。该单元具有两个参数和 model.summary()logistic_layer model.get_layer(L1) w,b logistic_layer.get_weights() print(w,b) print(w.shape,b.shape)让我们将权重和偏差设置为一些已知值。 set_w np.array([[2]]) set_b np.array([-4.5]) # set_weights takes a list of numpy arrays logistic_layer.set_weights([set_w, set_b]) print(logistic_layer.get_weights())让我们将等式2与层输出进行比较。 a1 model.predict(X_train[0].reshape(1,1)) print(a1) alog sigmoidnp(np.dot(set_w,X_train[0].reshape(1,1)) set_b) print(alog)它们产生了相同的值现在我们可以使用我们的逻辑层和NumPy模型对我们的训练数据进行预测。 以下代码是将训练数据 X_train 和标签 Y_train 以及模型的决策边界可视化出来 plt_logistic(X_train, Y_train, model, set_w, set_b, pos, neg)上面的阴影反映了从0到1变化的sigmoid的输出。 祝贺 你建立了一个非常简单的神经网络并探索了神经元与课程1中的线性和逻辑回归的相似之处。
http://www.pierceye.com/news/524676/

相关文章:

  • 汕头建站模板源码网站如何做视频链接地址
  • wordpress 取消赞广东seo推广软件
  • 网站一个多少钱做网站意义和目的
  • 做网站要用编程吗学做宝宝衣服的网站
  • 网站建设有哪些方法怎么在百度上注册店铺
  • 网站获取访问者qqwordpress网站布置视频
  • 南宁怎么做seo团队网站排名优化培训电话
  • 做百科权威网站有哪些开发网站访问流量赚钱
  • 网站建设论坛快速建站可以做网站的路由器
  • 网站首页没排名但内页有排名建设网站招标
  • 网站公司做网站修改会收费吗设计logo网站免费无水印
  • 东营市做网站优化视频拍摄剪辑培训
  • 南通百度网站快速优化运城小程序开发公司
  • 做一个综合商城网站多少钱网站建设运营必备人员
  • 聊城做wap网站公司手机网站设计教育类模板
  • 深圳做网站的人做微信投票的网站5
  • 靖安建设局网站WordPress使用云数据库
  • h5制作哪个网站好济南php网站开发
  • 深圳网站建设类公司最大的网站开发公司
  • ps做图游戏下载网站有哪些内容百度ip地址
  • 网站到期续费吗网站首页缩略图 seo
  • 网站制作案例 立邦建立个人网站能赚钱吗
  • 重庆巨能建设集团网站网站seo置顶 乐云践新专家
  • 专业制作网站 上海黑糖 wordpress 主题
  • 数据库网站开发卡片风格网站
  • 信息发布平台建站网站服务器天付
  • 免费做网站方法北京公司排名seo
  • 网站备案登记表晋城市建设局 网站
  • 网站备案会检查空间运营策划
  • 关于做网站建筑人力网