建设部网站 绿色建筑评价表,包头微网站开发,网站设置怎么调,域网站名分类目录
引言
1 数据集制作与加载
1.1 导入数据
1.2 制作数据集
2 Transformer分类模型和超参数选取
2.1 定义Transformer分类模型
2.2 定义模型参数
3 Transformer模型训练与评估
3.1 模型训练
3.2 模型评估
代码、数据如下#xff1a; 往期精彩内容#xff1a;
电…目录
引言
1 数据集制作与加载
1.1 导入数据
1.2 制作数据集
2 Transformer分类模型和超参数选取
2.1 定义Transformer分类模型
2.2 定义模型参数
3 Transformer模型训练与评估
3.1 模型训练
3.2 模型评估
代码、数据如下 往期精彩内容
电能质量扰动信号数据介绍与分类-Python实现-CSDN博客
Python电能质量扰动信号分类(一)基于LSTM模型的一维信号分类-CSDN博客
Python电能质量扰动信号分类(二)基于CNN模型的一维信号分类-CSDN博客
引言
本文基于Python仿真的电能质量扰动信号先经过数据预处理进行数据集的制作和加载然后通过Pytorch实现Transformer模型对扰动信号的分类。Python仿真电能质量扰动信号的详细介绍可以参考下文文末附10分类数据集
电能质量扰动信号数据介绍与分类-Python实现-CSDN博客
部分扰动信号类型波形图如下所示 1 数据集制作与加载
1.1 导入数据
在参考IEEE Std1159-2019电能质量检测标准与相关文献的基础上构建了扰动信号的模型生成包括正常信号在内的10中单一信号和多种复合扰动信号。参考之前的文章进行扰动信号10分类的预处理
第一步按照公式模型生成单一信号 单一扰动信号可视化 第二步导入十分类数据
import pandas as pd
import numpy as np# 样本时长0.2s 样本步长1024 每个信号生成500个样本 噪声0DB
window_step 1024
samples 500
noise 0
split_rate [0.7, 0.2, 0.1] # 训练集、验证集、测试集划分比例# 读取已处理的 CSV 文件
dataframe_10c pd.read_csv(PDQ_10c_Clasiffy_data.csv )
dataframe_10c.shape
1.2 制作数据集
第一步定义制作数据集函数 第二步制作数据集与分类标签
from joblib import dump, load
# 生成数据
train_dataframe, val_dataframe, test_dataframe make_data(dataframe_10c, split_rate)
# 制作标签
train_xdata, train_ylabel make_data_labels(train_dataframe)
val_xdata, val_ylabel make_data_labels(val_dataframe)
test_xdata, test_ylabel make_data_labels(test_dataframe)
# 保存数据
dump(train_xdata, TrainX_1024_0DB_10c)
dump(val_xdata, ValX_1024_0DB_10c)
dump(test_xdata, TestX_1024_0DB_10c)
dump(train_ylabel, TrainY_1024_0DB_10c)
dump(val_ylabel, ValY_1024_0DB_10c)
dump(test_ylabel, TestY_1024_0DB_10c)
2 Transformer分类模型和超参数选取
2.1 定义Transformer分类模型 注意输入数据进行了堆叠 把一个1*1024 的序列 进行划分堆叠成形状为 32 * 32 就使输入序列的长度降下来了。
2.2 定义模型参数
# 模型参数
input_dim 32 # 输入维度
hidden_dim 512 # 注意力维度
output_dim 10 # 输出维度
num_layers 4 # 编码器层数
num_heads 8 # 多头注意力头数
batch_size 64
# 模型
model TransformerModel(input_dim, output_dim, hidden_dim, num_layers, num_heads, batch_size)
model model.to(device)
loss_function nn.CrossEntropyLoss(reductionsum) # loss
learn_rate 0.0003
optimizer torch.optim.Adam(model.parameters(), lrlearn_rate) # 优化器
3 Transformer模型训练与评估
3.1 模型训练 训练结果 100个epoch准确率将近90%Transformer模型分类效果良好参数过拟合了适当调整模型参数降低模型复杂度还可以进一步提高分类准确率。 注意调整参数 可以适当增加 Transformer层数和隐藏层维度数微调学习率 增加更多的 epoch 注意防止过拟合 可以改变一维信号堆叠的形状设置合适的长度和维度 3.2 模型评估
# 模型 测试集 验证
import torch.nn.functional as F
device torch.device(cuda if torch.cuda.is_available() else cpu) # 有GPU先用GPU训练# 加载模型
model torch.load(best_model_transformer.pt)# 将模型设置为评估模式
model.eval()
# 使用测试集数据进行推断
with torch.no_grad():correct_test 0test_loss 0for test_data, test_label in test_loader:test_data, test_label test_data.to(device), test_label.to(device)test_output model(test_data)probabilities F.softmax(test_output, dim1)predicted_labels torch.argmax(probabilities, dim1)correct_test (predicted_labels test_label).sum().item()loss loss_function(test_output, test_label)test_loss loss.item()test_accuracy correct_test / len(test_loader.dataset)
test_loss test_loss / len(test_loader.dataset)
print(fTest Accuracy: {test_accuracy:4.4f} Test Loss: {test_loss:10.8f})Test Accuracy: 0.9070 Test Loss: 0.22114271
代码、数据如下