做网站需要什么技术,如何设置一个网站,wordpress twenty twelve数字,辽宁建设工程信息网官网新网站是哪个☁️主页 Nowl
#x1f525;专栏《机器学习实战》 《机器学习》
#x1f4d1;君子坐而论道#xff0c;少年起而行之 文章目录
Pytorch与Keras介绍
Pytorch
模型定义
模型编译
模型训练
输入格式
完整代码
Keras
模型定义
模型编译
模型训练
输入格式
完整代…
☁️主页 Nowl
专栏《机器学习实战》 《机器学习》
君子坐而论道少年起而行之 文章目录
Pytorch与Keras介绍
Pytorch
模型定义
模型编译
模型训练
输入格式
完整代码
Keras
模型定义
模型编译
模型训练
输入格式
完整代码
区别与使用场景
结语 Pytorch与Keras介绍 pytorch和keras都是一种深度学习框架使我们能很便捷地搭建各种神经网络但它们在使用上有一些区别也各自有其特性我们一起来看看吧 Pytorch 模型定义
我们以最简单的网络定义来学习pytorch的基本使用方法我们接下来要定义一个神经网络包括一个输入层一个隐藏层一个输出层这些层都是线性的给隐藏层添加一个激活函数Relu给输出层添加一个Sigmoid函数
import torch
import torch.nn as nnclass SimpleNet(nn.Module):def __init__(self):super(SimpleNet, self).__init__()self.fc1 nn.Linear(1, 32)self.relu nn.ReLU()self.fc2 nn.Linear(32, 1)self.sigmoid nn.Sigmoid()def forward(self, x):x self.fc1(x)x self.relu(x)x self.fc2(x)x self.Sigmoid(x)return x
模型编译
我们在之前的机器学习文章中反复提到过模型的训练是怎么进行的呢要有一个损失函数与优化方法我们接下来看看在pytorch中怎么定义这些
import torch.optim as optim# 实例化模型对象
model SimpleNet()
# 定义损失函数
criterion nn.MSELoss()# 定义优化器
learning_rate 0.01
optimizer optim.SGD(model.parameters(), lrlearning_rate)
我们上面创建的神经网络是一个类所以我们实例化一个对象model然后定义损失函数为mse优化器为随机梯度下降并设置学习率
模型训练
# 创建随机输入数据和目标数据
input_data torch.randn((100, 1)) # 100个样本每个样本有1个特征
target_data torch.randn((100, 1)) # 100个样本每个样本有1个目标值# 训练模型
epochs 100for epoch in range(epochs):# 前向传播output model(input_data)# 计算损失loss criterion(output, target_data)# 反向传播和优化optimizer.zero_grad()loss.backward()optimizer.step()
以上步骤是先创建了一些随机样本作为模型的训练集然后定义训练轮次为100次然后前向传播数据集计算损失再优化如此反复
输入格式
关于输入格式是很多人在实战中容易出现问题的对于pytorch创建的神经网络我们的输入内容是一个torch张量怎么创建呢
data torch.Tensor([[1], [2], [3]])
很简单对吧上面这个例子创建了一个torch张量有三组数据每组数据有1个特征
我们可以把这个数据输入到训练好的模型中得到输出结果如果输出不是torch张量代码就会报错
完整代码
import torch
import torch.nn as nn
import torch.optim as optim# 定义一个简单的神经网络模型
class SimpleNet(nn.Module):def __init__(self):super(SimpleNet, self).__init__()self.fc1 nn.Linear(1, 32)self.relu nn.ReLU()self.fc2 nn.Linear(32, 1)self.sigmoid nn.Sigmoid()def forward(self, x):x self.fc1(x)x self.relu(x)x self.fc2(x)x self.sigmoid(x)return xmodel SimpleNet()
criterion nn.MSELoss()# 定义优化器
learning_rate 0.01
optimizer optim.SGD(model.parameters(), lrlearning_rate)# 创建随机输入数据和目标数据
input_data torch.randn((100, 1)) # 100个样本每个样本有1个特征
target_data torch.randn((100, 1)) # 100个样本每个样本有1个目标值# 训练模型
epochs 100for epoch in range(epochs):# 前向传播output model(input_data)# 计算损失loss criterion(output, target_data)# 反向传播和优化optimizer.zero_grad()loss.backward()optimizer.step()data torch.Tensor([[1], [2], [3]])
prediction model(data)print(prediction)可以看到模型输出了三个预测值 注意这个任务本身没有意义因为我们的训练集是随机生成的这里主要学习框架的使用方法 Keras 我们在这里把和上面相同的神经网络结构使用keras框架实现一遍
模型定义
from keras.models import Sequential
from keras.layers import Densemodel Sequential([Dense(32, input_dim1, activationrelu),Dense(1, activationsigmoid)
])
注意这里也是一层输入层一层隐藏层一层输出层和pytorch一样输入层是隐式的我们的输入数据就是输入层上述代码定义了一个隐藏层输入维度是1输出维度是32还定义了一个输出层输入维度是32输出维度是1和pytorch环节的模型结构是一样的
模型编译
那么在Keras中模型又是怎么编译的呢
model.compile(lossmse, optimizersgd)
非常简单只需要这一行代码 设置损失函数为mse优化器为随机梯度下降
模型训练
模型的训练也非常简单
# 训练模型
model.fit(input_data, target_data, epochs100) 因为我们已经编译好了损失函数和优化器在fit里只需要输入数据输出数据和训练轮次这些参数就可以训练了
输入格式
对于Keras模型的输入我们要把它转化为numpy数组不然会报错
data np.array([[1], [2], [3]])
完整代码
from keras.models import Sequential
from keras.layers import Dense
import numpy as np# 定义模型
model Sequential([Dense(32, input_dim1, activationrelu),Dense(1, activationsigmoid)
])# 创建随机输入数据和目标数据
input_data np.random.randn(100, 1) # 100个样本每个样本有10个特征
target_data np.random.randn(100, 1) # 100个样本每个样本有5个目标值# 编译模型
model.compile(lossmse, optimizersgd)
# 训练模型
model.fit(input_data, target_data, epochs10)data np.array([[1], [2], [3]])prediction model(data)
print(prediction)
可以看到同样的任务Keras的代码量小很多
区别与使用场景
Keras代码量少使用便捷适用于快速实验和快速神经网络设计
而pytorch由于结构是由类定义的可以更加灵活地组建神经网络层这对于要求细节的任务更有利同时pytorch还采用动态计算图使得模型的结构可以在运行时根据输入数据动态调整但这个特点我还没有接触到之后可能会详细讲解
结语
Keras和Pytorch都各有各的优点请读者根据需求选择同时有些深度学习教程偏向于使用某一种框架最好都学习一点以适应不同的场景 感谢阅读觉得有用的话就订阅下本专栏吧