山西做网站建设的平台,合肥网站建设cnfg,wordpress建站产品导入不同目录,湖北营销型网站建设费用卷积层#xff1a; 两个输出的情况 就会有两个通道 可以改变通道数的 最简单的神经网络结构#xff1a;
nn.Mudule就是继承父类
super执行的是 先执行父类函数里面的
forward执行的就是前向网络#xff0c;就是往前推进的#xff0c;当然也有反向转播#xff0c;那就是…卷积层 两个输出的情况 就会有两个通道 可以改变通道数的 最简单的神经网络结构
nn.Mudule就是继承父类
super执行的是 先执行父类函数里面的
forward执行的就是前向网络就是往前推进的当然也有反向转播那就是用来就gradient dicent了求导计算了。 卷积后的结果展示
这里有个小细节
224 *244输出 224 *224 肯定是加了padding的如何算出这个padding 官网给了公式 这个一般用不到写论文科研可以再去官网查看 下面介绍池化层
mxpool是下采样mxunpool是上采样dilation是空洞卷积ceil——mode来保留用来对应下面情况 最大池化操作这里有一点要注意stride每次核移动的步进默认为卷积核一样大小 池化的直观感受就是变模糊了保留了数据的主要特征减小了数据量。 下面介绍非线性
inplace如果是1的话就是替换input如果是flase的话就是把输出用另一个变量来承接
一般来说是要false的保留以前的数据嘛
下面是使用sigmoid函数进行的非线性处理 插播stm32学习的
陀螺仪原理 下面介绍机器学习线性回归的问题 x就是各种已知道的特征这就是回归任务的第一步线性回归 这是实际值 第二步 就是我有label 和feartures 用函数预测出预测label比较好坏。选出比较规则。 利用梯度下降第三步找到最好loss 这种情况看人品no 线性回归不需要担心永远是第一种情况
梯度下降的算法 用二次拟合更好的model 或者更高的次来拟合更好的model 和更低的loss 直到你用更高次的model来拟合train 的结果更高了但是test的结果更差了这个就是过拟合了overfitting了 这个时候我们还要考虑有时候只考虑一种feature肯定是不够的 用冲激函数来乘 来做选择考虑多种feature 把全部能想象到的参数都加进去因为我们不知道有哪些参数是影响的这样做我们在train上可以得到很低但是又可能会过拟合做到这里还可以回到第二步定义model的好坏。第二部只考虑的了预测值的errorregularization是加上额外的wi 要求参数越小越好降低敏感度提高函数的平滑性
也不可以太平滑了就相当于一个水平线啥也干不成。调整朗木达来调整为什么朗木达里面没有加上b因为调整b的大小根本没用 总结一个输出和多个feature有关不过我们不确定那些有影响就会overfiting可以用正则化来平滑函数