2025/12/31 11:12:40
网站建设
项目流程
旅游网站建设网站目的,法人变更流程,网站 建设在作用是什么,过年做啥网站能致富全连接层#xff08;Fully Connected Layer#xff0c;又称稠密层/Dense Layer#xff09;是神经网络中最基础且重要的组件之一#xff0c;广泛应用于多层感知机#xff08;MLP#xff09;、卷积神经网络#xff08;CNN#xff09;和Transformer等架构中。以下是对全连…全连接层Fully Connected Layer又称稠密层/Dense Layer是神经网络中最基础且重要的组件之一广泛应用于多层感知机MLP、卷积神经网络CNN和Transformer等架构中。以下是对全连接层的系统分析. 核心定义结构特点层中每个神经元与上一层的所有神经元相连每个连接都有独立的权重参数。数学表达2. 核心功能与原理1特征空间变换通过矩阵乘法将输入映射到新的特征空间实现特征的组合与抽象。示例在图像分类中CNN 末端的全连接层将卷积提取的局部特征整合为全局语义信息。2非线性拟合能力结合激活函数如 ReLU引入非线性使网络能够逼近复杂函数通用近似定理。3参数量与计算量参数量m×nm权重 偏置计算量矩阵乘法复杂度 O(m×n)易成为计算瓶颈。在全连接神经网络MLP中的角色通常多个全连接层堆叠层间通过激活函数连接。层级特征提取浅层学习低级特征如边缘深层组合为高级抽象特征。在CNN中的应用末端分类器将卷积层输出的二维特征图展平为一维向量通过全连接层映射到类别空间。1.基本使用importtorchimporttorch.nnasnnimporttorch.nn.functionalasF# 1. 基本创建方式fc_layernn.Linear(in_features784,out_features256,biasTrue)print(f权重形状:{fc_layer.weight.shape})# torch.Size([256, 784])print(f偏置形状:{fc_layer.bias.shape})# torch.Size([256])# 2. 前向传播示例batch_size32input_tensortorch.randn(batch_size,784)# [batch, features]outputfc_layer(input_tensor)# [batch, 256]print(f输出形状:{output.shape})2 关键参数详解classLinear(nn.Module): 参数说明: ---------- in_features : int 输入特征维度 out_features : int 输出特征维度 bias : bool, defaultTrue 是否使用偏置项 device : torch.device, optional 计算设备 dtype : torch.dtype, optional 权重数据类型 def__init__(self,in_features,out_features,biasTrue):super().__init__()self.in_featuresin_features self.out_featuresout_features self.weightnn.Parameter(torch.Tensor(out_features,in_features))ifbias:self.biasnn.Parameter(torch.Tensor(out_features))else:self.register_parameter(bias,None)self.reset_parameters()