当前位置: 首页 > news >正文

南宁网站建设多少钱网站建设服务合同模板下载

南宁网站建设多少钱,网站建设服务合同模板下载,怎么运用区块链做网站,手机app设计软件有哪些在实际应用的时候#xff0c;我们的样本不会是完全干净的#xff0c;即存在噪声样本。那使用存在噪声的样本时#xff0c;我们如何更有效的进行模型学习呢#xff1f;Label Dependent Nose样本选择#xff08;Sample Selection#xff09;第一种很直接的想法#xff0c;…在实际应用的时候我们的样本不会是完全干净的即存在噪声样本。那使用存在噪声的样本时我们如何更有效的进行模型学习呢Label Dependent Nose样本选择Sample Selection第一种很直接的想法就是我们在样本集里把那些‘噪声’找出来然后直接过滤掉。但这里面的难点在于怎么找出哪些噪声。人工经验比如大学生一般是18岁-30之间如果小于18岁比如只有15岁就大概率不是。规则比如先走一遍已存在的比较靠谱的模型将p比较低的直接过滤另一种想法就是在模型训练的时候进行样本选择。即对于每个batch只选择clean样本的loss进行模型的更新。其中比较主流的方法时co-train系列。Decoupling《Decoupling “when to update” from “how toupdate”》核心思路分别独立训练2个模型对于每个batch2个模型分别预测。对于预测结果不一致的数据才会被选择用来更新模型的参数又被称为「update by disagreement」Co-teaching《Co-teaching: Robust Training of Deep Neural Networks with Extremely Noisy Labels》核心思路对于2个模型f和g。对于每个batch选择模型f中loss比较小的数据计算这些数据在模型g上的损失并更新模型g的参数。同时选择模型g中loss比较小的数据计算它们在f上的损失并更新模型f的参数。每个batch里选择多少个数据由R(T)来控制。Co-teachingICML2019的《How does Disagreement Help Generalization against Label Corruption?》核心思路 结合了Co-teach和decoupling的思路正则化Robust Regularization通过正则化的方法防止模型过拟合岛噪声样本上。比如Dropout、BN等方法。显式正则比如Dropout、BN、权重衰减等。这里介绍一种bilevel learningbilevel learning使用一个干净的验证集应用双层优化的方式来约束过拟合。通过调整权重最小化在验证集上的错误。在每个mini-batch上计算训练样本和验证集样本之间梯度的一致性一致性高的训练样本对应的权重增大。隐式正则在不降低模型表示能力的前提下提升了泛化性能adversarial training: 对抗训练鼓励网络正确分类原始输入和扰动的输入label smoothing标签平滑防止过度自信平滑分类边界平滑标签是原始标签和其他可能标签的加权组合mixup: 数据线性插值标签也线性插值结构设计Robust Architecture噪声自适应层noise adaptation layer专门用噪声过渡矩阵来建模噪声转换测试的去掉这一层。只针对实例无关的噪声。Loss设计Robust Loss首先我们介绍下对称损失Symmetric Loss因为Symmetric Loss是理论可证明噪声鲁棒的。我们这里考虑2分类任务。对于训练样本x标签为yy ∈ {0, 1}fθ(x)为模型输出θ为待优化的参数损失函数为l。a. 没有标签噪声的情况下待优化的目标为l[fθ(x), y] 1b. 在考虑有噪声的情况下x有概率ρ被误标为1-y那么实际上的优化目标是(1−ρ)⋅l[fθ(x), y] ρ⋅l[fθ(x), 1−y] 2。c. 对于目标函数2如果无论有无噪声该优化问题都会得到同样的解。这时候损失函数L就是噪声鲁棒的。d. 目标函数2可以转换为如下整理后的第一项是目标函数1的一个固定倍数。而第二项是当样本标签等概率取遍所有可能值时所产生的损失值。e. 如果满足如下结果时其中C是常数那么l就是Symmetric Loss即优化目标函数2和优化目标函数1是等价的。MAE考虑2分类l[fθ(x), y] l[fθ(x), 1-y] |1-fθ(x)| |0-fθ(x)| 1所以MAE是对称损失。但MAE的性能比较差跟CCEcategorical cross entropy相比训练的收敛时间更长。GCEgeneralized cross entropyCE/CCE不是对称损失。l[fθ(x), y] l[fθ(x), 1-y]C要求各个损失项非负且其和为定值那么各个损失项必然是有界的。但在当fθ(x)接近于0或者1时logfθ(x)或−log(1−fθ(x))是无界的。GCE可以兼顾MAE的鲁棒性和CE的性能。−log(fθ(x))项替换成一个指数项其中幂次q为一个超参数取值范围为(0, 1] 。当q 1时该指数项就蜕变为MAE的形式当q→0时由洛必达法则该指数项将蜕变为CE的形式。SCEsymmetric cross entropy在CCE上结合了一个noise tolerance term。Focal Loss GHM LossGHM可以认为是Focal Loss的一种优化。如下图所示梯度模长在接近0时样本量最多这部分是简单样本。随着模长增大样本量迅速下降在U字底部的部分可以认为是困难样本。在模长接近1时数量又变多这部分可以认为是极困难样本或者噪声样本。最终根据这种分布设计梯度密度来调整样本的权重。Loss AdjustmentLoss Correction和噪声自适应层类似损失校正通过给模型输出结果乘上一个估计的标签转移矩阵来修改loss不同之处在于噪声转移矩阵的学习是和模型的学习解耦的。包括backward correction、forward correction等。Loss Reweighting计算loss时给假样本更小的权重给真样本更高的权重。这类方法手动设计权重函数和超参。Label Refurbishment将网络的输出标签和噪声标签组合作为翻新后的标签a是噪声标签的置信度Meta LearningInstance Dependent Noise实际上在真实世界的数据集中存在更多的是instance-dependent (feature-dependent) label noise即特征相关的噪音标签。SEALself-evolution average labelCORESCOnfidence REgularized Sample Sieve参考Learning from Noisy Labels with Deep NeuralNetworks: A Survey
http://www.sczhlp.com/news/221560/

相关文章:

  • 网站建设培训会讲话施工企业在施工过程中发现工程设计图纸存在差错的
  • 陇南市响应式网站建设实时热搜榜榜单
  • 建设网站的必要与可行性wordpress 头像函数
  • 网站建设的公司上海西安网站价格
  • 网站所属网络广西和住房城乡建设厅网站
  • 唐山做网站多少钱电商培训学校
  • 淄博高端网站建设武威建设局网站
  • 许昌网站建设公司一般通过什么意思
  • 网站编写费用上海建设交通网站
  • 湛江模板建站平台个人又什么办法做企业网站
  • 陕西省建设招投标网站wordpress博客数据库
  • 可以做设计私单的网站阿里企业邮箱收费标准
  • 西安建设教育网站中文网站制作
  • 网站开发软硬件配置设计公司起名字
  • 成都淘宝网站建设公司网站空间域名建设
  • 大连建网站需要多少钱设计师如何做自己的个人网站
  • 河南省城乡与住房建设厅网站四川移动端网站建设
  • 各大网站提交入口网址漳州市建设局网站6
  • 湘潭网站seo公司有域名后如何建网站
  • 崇信县门户网站最新留言珠海市城乡规划建设局网站
  • 做网站商城必须要买空间吗网站建设 需求分析报告
  • 佛山网站建设app宁夏人脸识别门禁
  • 琼中网站建设网站备案跟做哪个推广有关系吗
  • 长春火车站什么时候通车国内课程网站建设现状
  • 铁路建设工程网站网站应该怎么做运维
  • 网站制作主要公司在哪查找网站的建设者
  • 房屋租赁系统网站开发商家管理系统
  • 贵州灵溪seo整站优化学做app软件在哪里学
  • 株洲seo网站推广番禺网站开发技术
  • 网站建站哪家公司好一点源码网站取名