当前位置: 首页 > news >正文

海口网站建设开发wordpress网站专题

海口网站建设开发,wordpress网站专题,响应式网站 图片处理,网站快速排名是怎么做的1. 解决了什么问题#xff1f; 目前的目标检测器很少能做到快速训练、快速推理#xff0c;并同时保持准确率。直觉上#xff0c;推理越快的检测器应该训练也很快#xff0c;但大多数的实时检测器反而需要更长的训练时间。准确率高的检测器大致可分为两类#xff1a;推理时…1. 解决了什么问题 目前的目标检测器很少能做到快速训练、快速推理并同时保持准确率。直觉上推理越快的检测器应该训练也很快但大多数的实时检测器反而需要更长的训练时间。准确率高的检测器大致可分为两类推理时间久的的训练时间久的。 推理时间久的检测器一般依赖于复杂的后处理逻辑或沉重的检测 head。尽管这些设计能提升准确率和收敛速度但是推理速度很慢不适合实时应用。 为了降低推理速度人们尝试去简化检测 head 与后处理同时能维持准确率。CenterNet 的推理速度快但是需要很长的训练时间这是因为简化后的网络很难训练过度依赖于数据增强和长训练周期。比如CenterNet 在 MS COCO 数据集上需要训练 140 140 140个 epochs而第一类方法只要训练 12 12 12epochs。 研究发现如果 batch size 越大可采取较大的学习率二者之间服从某种线性关系。作者发现从标注框编码更多的训练样本与增大 batch size 的作用相似。与特征提取相比编码特征、计算损失的时间微乎其微。这样我们就可以很低的代价来加快收敛。CenterNet 在回归目标的尺寸时只关注目标的中心点无法利用目标中心点附近的信息造成收敛速度很慢。 2. 提出了什么方法 为了平衡速度和准确率作者提出了 TTFNet它具有 light-head、单阶段和 anchor-free 的特点推理速度很快。为了降低训练时间作者发现从标注框中编码更多的训练样本与增大 batch size 作用相似从而可以增大学习率、加快训练过程。最后在进行定位和回归时提出利用高斯核来编码训练样本的方法。于是网络可以更好地利用标注框产生更多的监督信号实现快速收敛。通过高斯核构建出目标中心的附近区域从该区域内提取训练样本。将高斯概率作为回归样本的权重使用这样能更加关注于中心附近的样本。该方法能减少模糊的、低质量样本无需 FPN 结构。此外也无需预测偏移量来修正预测结果。 Motivation 编码更多的训练样本与增大 batch size 是相似的都可以提供更多的监督信号。这里的“训练样本”是指标注框内编码的特征。在随机梯度下降SGD中权重更新表示为 w t 1 w t − η 1 n ∑ x ∈ B Δ l ( x , w t ) w_{t1}w_t - \eta\frac{1}{n}\sum_{x\in B}\Delta l(x,w_t) wt1​wt​−ηn1​x∈B∑​Δl(x,wt​) w w w是网络权重 B B B是训练集里的 mini-batch n ∣ B ∣ n|B| n∣B∣是 mini-batch size η \eta η是学习率 l ( x , w ) l(x,w) l(x,w)是图像 x x x的损失计算。 对于目标检测任务图像 x x x包含多个标注边框这些边框会被编码为训练样本 s ∈ S x s\in S_x s∈Sx​。 m x ∣ S x ∣ m_x|S_x| mx​∣Sx​∣是图像 x x x中所有边框产生的样本个数。因此上式可写为 w t 1 w t − η 1 n ∑ x ∈ B 1 m x ∑ s ∈ S x Δ l ( s , w t ) w_{t1}w_t - \eta \frac{1}{n}\sum_{x\in B} \frac{1}{m_x} \sum_{s\in S_x} \Delta l(s, w_t) wt1​wt​−ηn1​x∈B∑​mx​1​s∈Sx​∑​Δl(s,wt​) 为了更简洁我们假设 mini-batch B B B里的每张图像 x x x的 m x m_x mx​都相等。对于每个训练样本 s s s上式写为 w t 1 w t − η 1 n m ∑ s ∈ B Δ l ( s , w t ) w_{t1}w_t - \eta \frac{1}{nm}\sum_{s\in B}\Delta l(s,w_t) wt1​wt​−ηnm1​s∈B∑​Δl(s,wt​) 根据线性缩放规则如果 batch size 乘以 k k k则学习率也要乘以 k k k除非网络变动很大或使用了非常大的 mini-batch。只有当我们能假设 Δ l ( x , w t ) ≈ Δ l ( x , w t j ) , j k \Delta l(x,w_t)\approx \Delta l(x, w_{tj}),jk Δl(x,wt​)≈Δl(x,wtj​),jk时用小 mini-batch B j B_j Bj​跑 k k k次、学习率为 η \eta η与用较大的 mini-batch ∪ j ∈ [ 0 , k ) B j \cup_{j\in [0,k)}B_j ∪j∈[0,k)​Bj​、学习率为 k η k\eta kη跑 1 1 1次是等价的。这里我们只关注训练样本 s s smini-batch size ∣ B ∣ n m |B|nm ∣B∣nm。作者提出了一个相似的结论每个 mini-batch 内的训练样本个数乘以 k k k则学习率乘以 l l l 1 ≤ l ≤ k 1\leq l\leq k 1≤l≤k。 CenterNet 的推理速度很快但训练时间很长。它在训练过程中使用了复杂的数据增强方法。尽管这些增强能提升训练准确率但是收敛很慢。为了排除它们对收敛速度的影响实验时不使用数据增强而且加大学习率。如下图较大的学习率能加快收敛但是准确率下降会造成过拟合。这是因为 CenterNet 在训练时只会在目标中心位置编码一个回归样本这使得 CenterNet 必须依赖于数据增强和长训练周期。 Approach Background CenterNet 将目标检测任务分为两个部分中心定位和尺寸回归。在定位任务它采取高斯核输出热力图网络在目标中心附近产生高激活值。在回归任务将目标中心点的像素定义为训练样本直接预测目标的宽度和高度。此外它会预测目标因输出步长而造成的偏移。网络在推理时目标中心点附近的激活值较高NMS 可被替换为其它操作。为了去除 NMS作者采取了与中心定位相似的策略在高斯核中加入了边框的宽高比。CenterNet 没有考虑到这一点不是最优的。 对于尺寸回归作者将高斯区域内所有的像素点都当作训练样本。此外使用目标大小和高斯概率计算出样本的权重更好地利用信息。该方法无需预测偏移量来修正下采样造成的误差因此更加简洁、高效。下图中主干网络提取特征然后上采样到原图 1 / 4 1/4 1/4分辨率。然后这些特征用于定位和回归任务。定位时网络在目标中心输出高激活值。回归时边框的高斯区域内的所有样本都能直接预测它到四条边的距离。 Gaussian Kernels for Training 给定一张图片网络分别预测特征 H ^ ∈ R N × C × H r × W r \hat{H}\in \mathcal{R}^{N\times C\times \frac{H}{r}\times \frac{W}{r}} H^∈RN×C×rH​×rW​和 S ^ ∈ R N × 4 × H r × W r \hat{S}\in \mathcal{R}^{N\times 4\times \frac{H}{r}\times \frac{W}{r}} S^∈RN×4×rH​×rW​。前者表示目标中心点在哪后者获取目标尺寸的信息。 N , C , H , W , r N,C,H,W,r N,C,H,W,r分别是 batch size、类别数、输入图像的高度和宽度、输出步长。实验中 C 80 , r 4 C80,r4 C80,r4。在定位和回归任务都使用了高斯核使用标量 α , β \alpha,\beta α,β来控制高斯核大小。 Object Localization 假设第 m m m个标注框属于第 c m c_m cm​个类别首先将它线性映射到特征图尺度。然后 2D 高斯核 K m ( x , y ) exp ⁡ ( − ( x − x 0 ) 2 2 σ x 2 − ( y − y 0 ) 2 2 σ y 2 ) \mathbf{K}_m(x,y)\exp({-\frac{(x-x_0)^2}{2\sigma_x^2}}-\frac{(y-y_0)^2}{2\sigma_y^2}) Km​(x,y)exp(−2σx2​(x−x0​)2​−2σy2​(y−y0​)2​)用于输出 H m ∈ R 1 × H r × W r H_m\in \mathcal{R}^{1\times \frac{H}{r}\times \frac{W}{r}} Hm​∈R1×rH​×rW​其中 σ x α ⋅ w 6 , σ y α ⋅ h 6 \sigma_x\frac{\alpha\cdot w}{6},\sigma_y\frac{\alpha\cdot h}{6} σx​6α⋅w​,σy​6α⋅h​。最后对 H m H_m Hm​使用 element-wise max 操作更新 H H H的第 c m c_m cm​个通道。 H m H_m Hm​由参数 α \alpha α、中心位置 ( x 0 , y 0 ) m (x_0,y_0)_m (x0​,y0​)m​和边框大小 ( h , w ) m (h,w)_m (h,w)m​决定。使用 ( ⌊ x r ⌋ , ⌊ y r ⌋ ) (\lfloor\frac{x}{r}\rfloor, \lfloor\frac{y}{r}\rfloor) (⌊rx​⌋,⌊ry​⌋)使中心点落在某像素点上。网络中设定 α 0.54 \alpha0.54 α0.54。 将高斯分布的峰值点边框中心像素点当作正样本其它像素点当作负样本。 给定预测 H ^ \hat{H} H^和定位目标 H H H L l o c − 1 M { ( 1 − H ^ i j c ) α f log ⁡ ( H ^ i j c ) if H i j c 1 ( 1 − H i j c ) β f H ^ i j c α f log ⁡ ( 1 − H ^ i j c ) , otherwise L_{loc} -\frac{1}{M}\left\{ \begin{array}{ll} (1-\hat{H}_{ijc})^{\alpha_f}\log(\hat{H}_{ijc})\quad\quad\quad\quad\quad\quad\quad\text{if}\quad H_{ijc}1 \\ (1-H_{ijc})^{\beta_f}\hat{H}^{\alpha_f}_{ijc}\log (1-\hat{H}_{ijc}),\quad\quad\quad \text{otherwise} \end{array} \right. Lloc​−M1​{(1−H^ijc​)αf​log(H^ijc​)ifHijc​1(1−Hijc​)βf​H^ijcαf​​log(1−H^ijc​),otherwise​ 其中 α f , β f \alpha_f,\beta_f αf​,βf​是 focal loss 的超参。 M M M表示标注框的个数。 α f 0.2 , β f 4 \alpha_f0.2,\beta_f4 αf​0.2,βf​4。 Size Regression 给定特征图尺度上的第 m m m个标注框用高斯核输出 S m ∈ R 1 × H r × W r S_m\in \mathcal{R}^{1\times \frac{H}{r}\times \frac{W}{r}} Sm​∈R1×rH​×rW​ β \beta β控制高斯核大小。 S m S_m Sm​中的非零区域叫做高斯区域 A m A_m Am​。 A m A_m Am​总是存在于第 m m m个边框内因此被叫做 sub-area。 Sub-area 内每个像素都是一个回归样本。给定 A m A_m Am​内的像素 ( i , j ) (i,j) (i,j)及输出步长 r r r回归目标定义为 ( i r , j r ) (ir,jr) (ir,jr)到第 m m m边框四条边的距离记做一个四维向量 ( w l , h t , w r , h b ) i j m (w_l,h_t,w_r,h_b)^m_{ij} (wl​,ht​,wr​,hb​)ijm​。 ( i , j ) (i,j) (i,j)位置的预测框表示为 x ^ 1 i r − w ^ l s , y ^ 1 j r − h ^ t s \hat{x}_1ir-\hat{w}_ls, \quad\quad \hat{y}_1jr-\hat{h}_ts x^1​ir−w^l​s,y^​1​jr−h^t​s x ^ 2 i r w ^ r s , y ^ 2 j r h ^ b s \hat{x}_2ir\hat{w}_rs, \quad\quad \hat{y}_2jr\hat{h}_bs x^2​irw^r​s,y^​2​jrh^b​s s s s是个固定标量扩大预测结果从而降低优化难度。实验中 s 16 s16 s16。预测框 ( x ^ 1 , y ^ 1 , x ^ 2 , y ^ 2 ) (\hat{x}_1,\hat{y}_1,\hat{x}_2,\hat{y}_2) (x^1​,y^​1​,x^2​,y^​2​)位于图像尺度而非特征图尺度。 不存在于任何 sub-area 内的像素在训练时会被忽略。如果一个像素同时存在于多个 sub-area模糊样本则训练 target 设为面积较小的目标。 给定预测结果 S ^ \hat{S} S^和回归目标 S S S从 S S S中汇集训练目标 S ′ ∈ R N r e g × 4 S\in \mathcal{R}^{N_{reg}\times 4} S′∈RNreg​×4及其对应的预测结果 S ′ ^ ∈ R N r e g × 4 \hat{S}\in \mathcal{R}^{N_{reg}\times 4} S′^∈RNreg​×4 N r e g N_{reg} Nreg​表示回归样本数。如上式所做的对于这些样本解码出预测边框及其对应的标注框。使用 GIoU 计算损失 L r e g 1 N r e g ∑ ( i , j ) ∈ A m GIoU ( B ^ i j , B m ) × W i j L_{reg}\frac{1}{N_{reg}}\sum_{(i,j)\in A_m} \text{GIoU}(\hat{B}_{ij},B_m)\times W_{ij} Lreg​Nreg​1​(i,j)∈Am​∑​GIoU(B^ij​,Bm​)×Wij​ B ^ i j \hat{B}_{ij} B^ij​表示解码后的边框 ( x ^ 1 , y ^ 1 , x ^ 2 , y ^ 2 ) i j (\hat{x}_1,\hat{y}_1,\hat{x}_2,\hat{y}_2)_{ij} (x^1​,y^​1​,x^2​,y^​2​)ij​ B m ( x 1 , y 1 , x 2 , y 2 ) m B_m({x}_1,{y}_1,{x}_2,{y}_2)_m Bm​(x1​,y1​,x2​,y2​)m​表示图像尺度的第 m m m个标注框。 W i j W_{ij} Wij​是样本权重平衡各样本的损失。 因为目标尺度都不一样大目标可能产生几千个样本而小目标只能产生很少。损失归一化后小目标的损失几乎都没了这不利于检测小目标。因此样本权重 W i j W_{ij} Wij​发挥着重要作用平衡损失。假定 ( i , j ) (i,j) (i,j)位于第 m m m个标注框的子区域 A m A_m Am​内 W i j { log ⁡ ( a m ) × G m ( i , j ) ∑ ( x , y ) ∈ A m G m ( x , y ) if ( i , j ) ∈ A m 0 if ( i , j ) ∉ A m W_{ij} \left\{ \begin{array}{ll} \log(a_m)\times \frac{G_m(i,j)}{\sum_{(x,y)\in A_m} G_m(x,y)} \quad\quad\quad\quad\text{if}\quad (i,j)\in A_m \\ 0\quad\quad\quad\quad\quad\quad\quad\quad\quad\quad\quad\quad\quad\quad\quad\text{if}\quad (i,j)\notin A_m \end{array} \right. Wij​{log(am​)×∑(x,y)∈Am​​Gm​(x,y)Gm​(i,j)​if(i,j)∈Am​0if(i,j)∈/Am​​ 其中 G m ( i , j ) G_m(i,j) Gm​(i,j)是 ( i , j ) (i,j) (i,j)位置的高斯概率。 a m a_m am​是第 m m m个边框的面积。该机制能更好地利用大目标的标注信息保留小目标的信息。它也能突出目标中心附近的样本减少模糊和低质量样本。 Total Loss 总损失 L L L包括了定位损失 L l o s L_{los} Llos​和回归损失 L r e g L_{reg} Lreg​用两个标量加权。 L w l o g L l o c w r e g L r e g Lw_{log}L_{loc}w_{reg}L_{reg} Lwlog​Lloc​wreg​Lreg​本文设定 w l o c 1.0 , w r e g 5.0 w_{loc}1.0, w_{reg}5.0 wloc​1.0,wreg​5.0。 Overall Design TTFNet 的结构如上图所示。主干使用 ResNet 和 DarkNet。主干提取特征后上采样到原图的 1 / 4 1/4 1/4分辨率用 Modulated Deform Conv 和上采样层实现后面跟着 BN 层和 ReLU 层。 然后上采样特征分别输入进两个 heads。定位 head 对目标中心附近的位置输出高激活值而回归 head 直接预测这些位置到边框四条边的距离。因为目标中心对应特征图的局部极大值用 2D 最大池化来抑制非极大值。然后用局部极大值来汇总回归结果。最后得到检测结果。 该方法充分利用了大中目标的标注信息而小目标的提升有限。为了提升短训练周期中小目标的表现通过短路连接来引入高分辨率、低层级特征。短路连接引入了主干网络第2、3、4阶段的特征每个连接用 3 × 3 3\times 3 3×3卷积实现。短路连接的第2、3、4阶段的层数分别设为3、2、1每层后跟着一个 ReLU除了最后一个。
http://www.sczhlp.com/news/258173/

相关文章:

  • 做淘宝优惠券网站要多少钱一个软件是怎么做出来的
  • 上海房产网新楼盘价格百度刷seo关键词排名
  • 网站建设方案详解沈阳seo自然优化排名
  • 学院网站建设需求分析调研表双桥seo排名优化培训
  • 公司网站被抄袭影响网站排名的因素
  • 西安创意网站建设网站营销的重要价值
  • 网站基础服务标书制作注意事项
  • 网站建设有限公一个网站是如何建设
  • 湛江建站网络公司做论坛网站
  • 检察院门户网站建设自查报告公司网站忘了怎么做
  • 如何开网站做代销顺企网赣州网站建设
  • 做食物网站应该考虑些什么班级网站建设需求
  • 网站对联广告做网站看
  • 域名解析查询站长工具WordPress网站转HTPPS
  • 上海建站系统wordpress百度云
  • 哪家网站遴选做的比较好e时代速递搜索引擎网站建设
  • 南山制作网站wordpress中文cms主题模板
  • 如何修复网站中的死链网站建设制作方法
  • 企业网站怎么做排名贵阳seo技术
  • 计算机网站开发毕业设计论文开题报告科技公司官网首页
  • 温州企业网站建设要多少钱做网站接雕塑业务
  • 网站外链多的危害wordpress 收邮件
  • 怎么学好网站建设网站建设连接数据库
  • 建设网站多久网站建设公司swot分析
  • 城乡与住房建设部网站办事大厅网站留言板制作
  • seo发帖网站莱西网站建设哪家好
  • 怎么在网站中做视频背景html网站分页怎么做的
  • 水果网站推广个体户可以做网站建设
  • 苏州市吴中区住房和城乡建设局官方网站织梦网站文章发布模板下载
  • 用asp怎么做网站织梦个人博客网站源码