当前位置: 首页 > news >正文

牡丹江seo网站推广蜘蛛屯优化排名连锁酒店的网站建设

牡丹江seo网站推广蜘蛛屯优化排名,连锁酒店的网站建设,多语种网站建设公司,如何做好公司网站建设目录 一、简介什么是梯度下降#xff1f;为什么梯度下降重要#xff1f; 二、梯度下降的数学原理代价函数#xff08;Cost Function#xff09;梯度#xff08;Gradient#xff09;更新规则代码示例#xff1a;基础的梯度下降更新规则 三、批量梯度下降#xff08;Batc… 目录 一、简介什么是梯度下降为什么梯度下降重要 二、梯度下降的数学原理代价函数Cost Function梯度Gradient更新规则代码示例基础的梯度下降更新规则 三、批量梯度下降Batch Gradient Descent基础算法代码示例 四、随机梯度下降Stochastic Gradient Descent基础算法代码示例优缺点 五、小批量梯度下降Mini-batch Gradient Descent基础算法代码示例优缺点 本文全面深入地探讨了梯度下降及其变体——批量梯度下降、随机梯度下降和小批量梯度下降的原理和应用。通过数学表达式和基于PyTorch的代码示例本文旨在为读者提供一种直观且实用的视角以理解这些优化算法的工作原理和应用场景。 关注TechLead分享AI全维度知识。作者拥有10年互联网服务架构、AI产品研发经验、团队管理经验同济本复旦硕复旦机器人智能实验室成员阿里云认证的资深架构师项目管理专业人士上亿营收AI产品研发负责人。 一、简介 梯度下降Gradient Descent是一种在机器学习和深度学习中广泛应用的优化算法。该算法的核心思想非常直观找到一个函数的局部最小值或最大值通过不断地沿着该函数的梯度gradient方向更新参数。 什么是梯度下降 简单地说梯度下降是一个用于找到函数最小值的迭代算法。在机器学习中这个“函数”通常是损失函数Loss Function该函数衡量模型预测与实际标签之间的误差。通过最小化这个损失函数模型可以“学习”到从输入数据到输出标签之间的映射关系。 为什么梯度下降重要 广泛应用从简单的线性回归到复杂的深度神经网络梯度下降都发挥着至关重要的作用。 解决不可解析问题对于很多复杂的问题我们往往无法找到解析解analytical solution而梯度下降提供了一种有效的数值方法。 扩展性梯度下降算法可以很好地适应大规模数据集和高维参数空间。 灵活性与多样性梯度下降有多种变体如批量梯度下降Batch Gradient Descent、随机梯度下降Stochastic Gradient Descent和小批量梯度下降Mini-batch Gradient Descent各自有其优点和适用场景。 二、梯度下降的数学原理 在深入研究梯度下降的各种实现之前了解其数学背景是非常有用的。这有助于更全面地理解算法的工作原理和如何选择合适的算法变体。 代价函数Cost Function 在机器学习中代价函数也称为损失函数Loss Function是一个用于衡量模型预测与实际标签或目标之间差异的函数。通常用 ( J(\theta) ) 来表示其中 ( \theta ) 是模型的参数。 梯度Gradient 更新规则 代码示例基础的梯度下降更新规则 import numpy as npdef gradient_descent_update(theta, grad, alpha):Perform a single gradient descent update.Parameters:theta (ndarray): Current parameter values.grad (ndarray): Gradient of the cost function at current parameters.alpha (float): Learning rate.Returns:ndarray: Updated parameter values.return theta - alpha * grad# Initialize parameters theta np.array([1.0, 2.0]) # Hypothetical gradient (for demonstration) grad np.array([0.5, 1.0]) # Learning rate alpha 0.01# Perform a single update theta_new gradient_descent_update(theta, grad, alpha) print(Updated theta:, theta_new)输出 Updated theta: [0.995 1.99 ]在接下来的部分我们将探讨梯度下降的几种不同变体包括批量梯度下降、随机梯度下降和小批量梯度下降以及一些高级的优化技巧。通过这些内容你将能更全面地理解梯度下降的应用和局限性。 三、批量梯度下降Batch Gradient Descent 批量梯度下降Batch Gradient Descent是梯度下降算法的一种基础形式。在这种方法中我们使用整个数据集来计算梯度并更新模型参数。 基础算法 批量梯度下降的基础算法可以概括为以下几个步骤 代码示例 下面的Python代码使用PyTorch库演示了批量梯度下降的基础实现。 import torch# Hypothetical data (features and labels) X torch.tensor([[1.0, 2.0], [2.0, 3.0], [3.0, 4.0]], requires_gradTrue) y torch.tensor([[1.0], [2.0], [3.0]])# Initialize parameters theta torch.tensor([[0.0], [0.0]], requires_gradTrue)# Learning rate alpha 0.01# Number of iterations n_iter 1000# Cost function: Mean Squared Error def cost_function(X, y, theta):m len(y)predictions X thetareturn (1 / (2 * m)) * torch.sum((predictions - y) ** 2)# Gradient Descent for i in range(n_iter):J cost_function(X, y, theta)J.backward()with torch.no_grad():theta - alpha * theta.gradtheta.grad.zero_()print(Optimized theta:, theta)输出 Optimized theta: tensor([[0.5780],[0.7721]], requires_gradTrue)批量梯度下降的主要优点是它的稳定性和准确性但缺点是当数据集非常大时计算整体梯度可能非常耗时。接下来的章节中我们将探索一些用于解决这一问题的变体和优化方法。 四、随机梯度下降Stochastic Gradient Descent 随机梯度下降Stochastic Gradient Descent简称SGD是梯度下降的一种变体主要用于解决批量梯度下降在大数据集上的计算瓶颈问题。与批量梯度下降使用整个数据集计算梯度不同SGD每次只使用一个随机选择的样本来进行梯度计算和参数更新。 基础算法 随机梯度下降的基本步骤如下 代码示例 下面的Python代码使用PyTorch库演示了SGD的基础实现。 import torch import random# Hypothetical data (features and labels) X torch.tensor([[1.0, 2.0], [2.0, 3.0], [3.0, 4.0]], requires_gradTrue) y torch.tensor([[1.0], [2.0], [3.0]])# Initialize parameters theta torch.tensor([[0.0], [0.0]], requires_gradTrue)# Learning rate alpha 0.01# Number of iterations n_iter 1000# Stochastic Gradient Descent for i in range(n_iter):# Randomly sample a data pointidx random.randint(0, len(y) - 1)x_i X[idx]y_i y[idx]# Compute cost for the sampled pointJ (1 / 2) * torch.sum((x_i theta - y_i) ** 2)# Compute gradientJ.backward()# Update parameterswith torch.no_grad():theta - alpha * theta.grad# Reset gradientstheta.grad.zero_()print(Optimized theta:, theta)输出 Optimized theta: tensor([[0.5931],[0.7819]], requires_gradTrue)优缺点 SGD虽然解决了批量梯度下降在大数据集上的计算问题但因为每次只使用一个样本来更新模型所以其路径通常比较“嘈杂”或“不稳定”。这既是优点也是缺点不稳定性可能帮助算法跳出局部最优解但也可能使得收敛速度减慢。 在接下来的部分我们将介绍一种折衷方案——小批量梯度下降它试图结合批量梯度下降和随机梯度下降的优点。 五、小批量梯度下降Mini-batch Gradient Descent 小批量梯度下降Mini-batch Gradient Descent是批量梯度下降和随机梯度下降SGD之间的一种折衷方法。在这种方法中我们不是使用整个数据集也不是使用单个样本而是使用一个小批量mini-batch的样本来进行梯度的计算和参数更新。 基础算法 小批量梯度下降的基本算法步骤如下 代码示例 下面的Python代码使用PyTorch库演示了小批量梯度下降的基础实现。 import torch from torch.utils.data import DataLoader, TensorDataset# Hypothetical data (features and labels) X torch.tensor([[1.0, 2.0], [2.0, 3.0], [3.0, 4.0], [4.0, 5.0]], requires_gradTrue) y torch.tensor([[1.0], [2.0], [3.0], [4.0]])# Initialize parameters theta torch.tensor([[0.0], [0.0]], requires_gradTrue)# Learning rate and batch size alpha 0.01 batch_size 2# Prepare DataLoader dataset TensorDataset(X, y) data_loader DataLoader(dataset, batch_sizebatch_size, shuffleTrue)# Mini-batch Gradient Descent for epoch in range(100):for X_batch, y_batch in data_loader:J (1 / (2 * batch_size)) * torch.sum((X_batch theta - y_batch) ** 2)J.backward()with torch.no_grad():theta - alpha * theta.gradtheta.grad.zero_()print(Optimized theta:, theta)输出 Optimized theta: tensor([[0.6101],[0.7929]], requires_gradTrue)优缺点 小批量梯度下降结合了批量梯度下降和SGD的优点它比SGD更稳定同时比批量梯度下降更快。这种方法广泛应用于深度学习和其他机器学习算法中。 小批量梯度下降不是没有缺点的。选择合适的批量大小可能是一个挑战而且有时需要通过实验来确定。 关注TechLead分享AI全维度知识。作者拥有10年互联网服务架构、AI产品研发经验、团队管理经验同济本复旦硕复旦机器人智能实验室成员阿里云认证的资深架构师项目管理专业人士上亿营收AI产品研发负责人。
http://www.sczhlp.com/news/195426/

相关文章:

  • 专业制作网站推荐中国建筑网官网招聘信息
  • 视频网站logo怎么做保护区门户网站建设制度
  • 商务网站建设试题ps做网站要求高吗
  • 网站解析查询网站维护公告模板
  • 公司网站制作费做无形资产投资小利润高的小生意
  • 大良网站建设价位网站改版重新备案
  • 手机网站制作设计邢台本地网站
  • php成品网站下载网站添加 百度商桥
  • 明年做哪些网站能致富成都微网站开发
  • 做问卷调查的网站品牌推广的具体方法
  • 做博客网站要什么技术wordpress 更新数据库
  • 做网站销售需要注意的网站建设与管理提纲
  • html做简单网站实例seo知识点
  • 男女之间做那个事情很污的网站目前最牛的二级分销模式
  • 网站开发的经济效益分析开家给别人做网站公司
  • 搭建的网站403网站排名怎样做有效
  • 医疗网站建设管理做代练网站能备案
  • 做标签网站刷单最专业汽车网站建设
  • 佛山网站建设及推广服务公司北京师大互联网公司
  • 外贸社交网站排名网站建设费是什么费用
  • 东城网站建设公司科技有限公司可以做网站建设吗
  • 实验一:现代C++初体验
  • 低代码时代,企业机遇在哪里
  • 2025 年浙江专升本培训学校推荐榜:浙江/台州/萧山/温州专升本机构,聚焦学历提升需求,杭州泓涵培训学校为学子护航
  • 25noip20d2t2 马戏表演 - Slayer
  • 网上学习做网站做外贸网站用什么空间
  • 有哪些站内推广的方式汕头百度网站推广
  • 购物网站建设代码手机网站欢迎页面
  • django网站开发实例pdf网站编写语言什么好
  • 网站建设公司业务提成多少龙采科技做网站多少钱