看守所加强自身网站建设工作总结,源码编辑器网页版,网站开发合同甲方的权利,做网站排名需要多少钱#x1f7e9; 1. 数据张量#xff08;特征图#xff09;维度这是我们喂进网络或从网络中出来的“实际数据”。类型维度格式举例说明图像/特征图(B, C, H, W)(4, 3, 32, 32)PyTorch中最常用的数据布局#xff08;NCHW#xff09;图像/特征图#xff08;TensorFlow风格 1. 数据张量特征图维度这是我们喂进网络或从网络中出来的“实际数据”。类型维度格式举例说明图像/特征图(B, C, H, W)(4, 3, 32, 32)PyTorch中最常用的数据布局NCHW图像/特征图TensorFlow风格(B, H, W, C)(4, 32, 32, 3)TF/Keras默认的数据格式NHWC序列数据(B, T, D)(4, 100, 512)Bbatch, T时间步数, D特征维度比如RNN、Transformer输入2. 卷积层的权重张量维度这些是参数层的权重不是输入输出数据类型维度格式举例含义1D 卷积(out_channels, in_channels, kernel_size)(64, 32, 3)只沿时间轴卷积2D 卷积(out_channels, in_channels, kH, kW)(64, 3, 3, 3)最常见3D 卷积(out_channels, in_channels, D, H, W)(64, 3, 3, 3, 3)用于体积数据/视频等3. 全连接层Linear维度类型权重形状举例含义FC 层权重(out_features, in_features)(5, 192)5个输出神经元从192维输入接收信号输入数据(batch_size, in_features)(4, 192)每个样本是1个向量输出数据(batch_size, out_features)(4, 5)每个样本输出一个向量4. 注意力机制中矩阵维度尤其是 Transformer矩阵维度格式举例说明Query / Key / Value(B, heads, T, d_k)(4, 8, 100, 64)多头注意力中每一头的特征维度Attention 权重矩阵(B, heads, T_q, T_k)(4, 8, 100, 100)每个query对所有key的注意力分数Output(B, T, d_model)(4, 100, 512)每个时间步最终的编码结果5. RNN / LSTM / GRU 输入输出维度类型维度举例说明输入数据(seq_len, batch, input_size)(100, 4, 128)PyTorch默认格式输出同输入(100, 4, hidden_size)每一步的输出hidden / cell(num_layers × num_directions, batch, hidden_size)(2, 4, 128)LSTM/GRU的隐藏状态6. BatchNorm 层的参数维度类型参数形状说明BatchNorm1d(C,)用于线性层或1D卷积输出的每个通道BatchNorm2d(C,)对应于每个图像通道BatchNorm3d(C,)视频/体数据的每个通道