当前位置: 首页 > news >正文

网站 二级域名电商就业前景

网站 二级域名,电商就业前景,广告设计与制作好找工作吗,python 做视频网站—— 25.2.23 ReLU广泛应用于卷积神经网络#xff08;CNN#xff09;和全连接网络#xff0c;尤其在图像分类#xff08;如ImageNet#xff09;、语音识别等领域表现优异。其高效性和非线性特性使其成为深度学习默认激活函数的首选 一、定义与数学表达式 ReLU#xff0… —— 25.2.23 ReLU广泛应用于卷积神经网络CNN和全连接网络尤其在图像分类如ImageNet、语音识别等领域表现优异。其高效性和非线性特性使其成为深度学习默认激活函数的首选 一、定义与数学表达式 ReLURectified Linear Unit修正线性单元是一种分段线性激活函数 其数学表达式为ReLU(x)max(0,x) 即当输入 x 大于 0 时输出为 x当 x≤0 时输出为 0。 二、核心特点 非线性特性通过引入分段线性特性ReLU为神经网络引入非线性使其能拟合复杂函数。 计算高效仅通过阈值判断x0即可完成计算避免了指数运算如Sigmoid、Tanh显著提升速度。 缓解梯度消失在 x0 时梯度恒为 1反向传播时梯度不会饱和加速收敛。 稀疏激活性负输入时输出为 0导致部分神经元“休眠”减少参数依赖和过拟合风险。 三、优点 简单高效实现和计算成本低适合深度网络。 收敛速度快相比Sigmoid/TanhReLU在训练中梯度更稳定收敛更快。 非零中心性输出范围为 [0,∞)虽非严格零中心但简化了优化过程 四、局限性 Dead ReLU问题若神经元输入长期为负梯度恒为 0导致权重无法更新神经元“死亡”。 非零中心性输出偏向非负值可能影响梯度下降效率。 对初始化敏感若学习率过高负输入区域可能使神经元永久失效。 五、变体 Leaky ReLU允许负输入时输出 αxα为小常数如0.01。 PReLUParametric ReLU将 α 设为可学习参数动态调整负区斜率。 ELUExponential Linear Unit负输入时输出 α(ex−1)使输出均值接近零。 Swish自门控激活函数结合ReLU和Sigmoid特性平滑且无上界。 六、代码示例 1.通过 nn.ReLU() 作为网络层 nn.ReLU() PyTorch 中的修正线性单元ReLU激活函数模块用于神经网络中引入非线性。其功能是将输入张量中所有负值置为 0保留正值不变 参数名称类型是否必填说明inplacebool否是否原地操作直接修改输入张量。默认值为 False此时会返回新张量。若设为 True则直接在原张量上操作。 import torch import torch.nn as nn import torch.optim as optim# 定义一个简单的网络包含两个线性层和 ReLU 激活 class Net(nn.Module):def __init__(self):super(Net, self).__init__()self.fc1 nn.Linear(784, 256) # 输入层784 → 256self.relu nn.ReLU() # ReLU 激活层self.fc2 nn.Linear(256, 10) # 输出层256 → 10如分类任务def forward(self, x):x self.relu(self.fc1(x)) # 在第一层后应用 ReLUx self.fc2(x)return x# 初始化网络、损失函数和优化器 model Net() criterion nn.CrossEntropyLoss() optimizer optim.SGD(model.parameters(), lr0.01)# 输入数据示例如 MNIST 图像形状为 [batch_size, 784] input_data torch.randn(32, 784)# 前向传播 output model(input_data) print(output.shape) # 输出形状: (32, 10) 2. 直接使用 torch.relu() 函数 torch.relu() PyTorch 中实现修正线性单元ReLU激活函数的函数 其数学表达式为ReLU(x)max(0,x) 参数名称类型是否必填说明inplacebool否是否原地修改输入张量。若为 True则直接修改输入张量以节省内存若为 False默认则返回新张量。 import torch# 示例输入 x torch.tensor([-1.0, 0.0, 1.0])# 应用 ReLU 函数非原地 y torch.relu(x) print(y) # 输出: tensor([0., 0., 1.])# 应用 ReLU 函数原地 torch.relu_(x) print(x) # 输出: tensor([0., 0., 1.])原始张量被修改[1,7](ref)。
http://www.sczhlp.com/news/241374/

相关文章:

  • 网站建设 中企动力南昌网站建设的工资
  • android app开发 wordpressseo优化是什么
  • 小吃店网站建设h5响应式网站是什么
  • 个人电影网站备案永康市住房建设局网站
  • 网站建设php怎么安装光纤做网站 移动不能访问电信
  • 互联网推广品牌重庆百度seo排名
  • 规范门户网站的建设和管理办法土木工程毕设代做网站
  • 华盛链条网站建设百度做广告推广怎么样
  • 浙江建设银行网站把网站做静态化是什么意思
  • 西安网站制作计划苏州退工在哪个网站做
  • 情人节给女朋友做网站中国采购与招标网官网首页
  • 许嵩做的网站北京网站排行榜
  • dede静态网站模板下载青之峰网站建设哪家好
  • 建应用网站马蹄网室内设计
  • 网站后台信息怎么更新孟村网站建设
  • 淄博做网站58同城那些因素会影响网站的排名位置
  • 上海网站建设网络推广网站域名注册网站
  • 桥梁建设网站在哪里可以投稿域名备案的网站名称
  • 母版页做网站例子北京互联网排名
  • 重庆seo网站排名优化东莞招投标服务中心
  • 2025年斗式输送机生产商权威推荐榜单:链斗输送机/z型输送机/c型输送机源头生产商精选
  • 培训机构网站建设要求洪山区建设局网站
  • [CSP-S 2021] 括号序列 题解
  • 游戏战斗服随记
  • sg.time 详解
  • 更新Vben5登录页的背景svg
  • 网站正在备案中衡水做网站改版
  • 热门网站有哪些网站规划建设书
  • 网站建设合理的流程竞价推广和seo的区别
  • 手机网站demo怎么搜才能搜到网站