当前位置: 首页 > news >正文

东莞做网站公司/百度提问登陆入口

东莞做网站公司,百度提问登陆入口,做招牌的网站,网站开发一般做几个适配文章目录1.定义2.原理3.实现方式4.注意事项1.定义 对mlp的隐藏层增加噪音但不改变期望值,从而提高模型的泛化度,防止过拟合 2.原理 将施加了 dropout 的隐藏层的神经元分成两份,概率分别是第一份 p 和 第二份 1-p,第一份直接置为…

文章目录

  • 1.定义
  • 2.原理
  • 3.实现方式
  • 4.注意事项


1.定义

对mlp的隐藏层增加噪音但不改变期望值,从而提高模型的泛化度,防止过拟合


2.原理

将施加了 dropout 的隐藏层的神经元分成两份,概率分别是第一份 p 和 第二份 1-p,第一份直接置为 0 降低期望,第二份统一除以 1-p 来提高期望,从而达到整体期望值不变的需求
在这里插入图片描述
也就是

E[xi′]=p∗0+(1−p)[xi/(1−p)]E[xi'] = p*0 + (1-p)[xi/(1-p)]E[xi]=p0+(1p)[xi/(1p)]

E[xi′]=xiE[xi'] = xiE[xi]=xi

约掉之后期望值不变,网络变成这个样子
在这里插入图片描述

3.实现方式

使用Pytorch的现成方法

from torch import nnnet = nn.Sequential(nn.Flatten(),nn.Linear(784, 256),nn.ReLU(),nn.Dropout(0.3),        # 丢弃3成nn.Linear(256, 128),nn.ReLU(),nn.Dropout(0.2),        # 丢弃2成nn.Linear(128, 10)
)

或者自己实现

import torchdef dropout(X, rate):assert 0 <= rate <= 1                           # 丢弃概率不在1-0之间直接抛异常if rate == 1:                                   # 丢弃概率为1时全部丢弃,返回与X同维度的全0张量return torch.zeros_like(X)elif rate == 0:                                 # 丢弃概率为0时全部保留,返回Xreturn Xelse:                                           # 0<丢弃概率<1时,根据概率随机丢弃神经元并增加保留神经元的权重mask = (torch.rand(X.shape) > rate).float()return mask * X / (1.0 - rate)if __name__ == '__main__':# 生成张量X = torch.rand(size=(3, 5))print(X)# tensor([[0.9695, 0.5501, 0.8937, 0.7924, 0.6007],#         [0.2121, 0.4906, 0.5322, 0.9305, 0.6586],#         [0.3558, 0.7379, 0.0585, 0.3683, 0.9134]])# 不丢弃神经元X_drop = dropout(X, 0)print(X_drop)# tensor([[0.9695, 0.5501, 0.8937, 0.7924, 0.6007],#         [0.2121, 0.4906, 0.5322, 0.9305, 0.6586],#         [0.3558, 0.7379, 0.0585, 0.3683, 0.9134]])# 丢弃6成神经元X_drop = dropout(X, 0.6)print(X_drop)# tensor([[0.0000, 1.3754, 0.0000, 0.0000, 1.5016],#         [0.5303, 0.0000, 0.0000, 0.0000, 0.0000],#         [0.0000, 1.8447, 0.1462, 0.9206, 0.0000]])# 丢弃全部神经元X_drop = dropout(X, 1)print(X_drop)# tensor([[0., 0., 0., 0., 0.],#         [0., 0., 0., 0., 0.],#         [0., 0., 0., 0., 0.]])

其中

mask = (torch.rand(X.shape) > rate).float()
return mask * X / (1.0 - rate)

这段代码的解释是

  1. 原张量
# tensor([[0.9695, 0.5501, 0.8937, 0.7924, 0.6007],
#         [0.2121, 0.4906, 0.5322, 0.9305, 0.6586],
#         [0.3558, 0.7379, 0.0585, 0.3683, 0.9134]])
  1. 经过 mask_tf = torch.rand(X.shape) > rate
# tensor([[ True, False,  True, False,  True],
#         [False, False, False,  True,  True],
#         [False, False,  True, False, False]])
  1. 再转为浮点 mask = mask_tf.float()
# tensor([[1., 0., 1., 0., 1.],
#         [0., 0., 0., 1., 1.],
#         [0., 0., 1., 0., 0.]])
  1. mask * X 做掩码
# tensor([[0.0000, 0.5501, 0.0000, 0.0000, 0.6007],
#         [0.2121, 0.0000, 0.0000, 0.0000, 0.0000],
#         [0.0000, 0.7379, 0.0585, 0.3683, 0.0000]])
  1. 除以(1.0 - rate) 增加权重
# tensor([[0.0000, 1.3754, 0.0000, 0.0000, 1.5016],
#         [0.5303, 0.0000, 0.0000, 0.0000, 0.0000],
#         [0.0000, 1.8447, 0.1462, 0.9206, 0.0000]])

4.注意事项

  1. dropout 是个正则项,只在训练时生效,在预测时权重不需要发生变化,因此不生效 h=dropout(h)h = dropout(h)h=dropout(h),可以保证预测获得确定性的输出
  2. 丢弃法将一些输出项随机置0来控制模型复杂度
  3. 常用在mlp隐藏层的输出上
  4. 丢弃概率是控制模型复杂度的超参数
  5. dropout 可以提高泛化度防止过拟合

灵魂拷问
Q:那么 dropout 给多少合适呢
A:见过老中医抓药么(狗头)

请添加图片描述

http://www.lbrq.cn/news/1024939.html

相关文章:

  • 旅游网站建设的论文/商丘网站优化公司
  • 自己做网站卖衣服/下载百度免费
  • 高端品牌男鞋/seo快速排名优化方式
  • 腾讯云做网站/成都网站seo技巧
  • 网站建设学习/seo软件推广
  • 学做网站论坛vip视频/引流推广营销
  • 业余做网站/合理使用说明
  • 网上车辆租赁网站怎么做/阿里巴巴怎么优化关键词排名
  • 时时彩 网站开发/seo的优化流程
  • phpwind能做网站吗/百度推广代理商返点
  • 做网站卖酒/网上写文章用什么软件
  • 杂志排版设计用什么软件/优化公司怎么优化网站的
  • 做动漫主题的网站/腾讯企点注册
  • 建设网站需要提前准备的条件/查网站关键词工具
  • 做第三方网站注意什么/市场营销推广方案
  • 中国宁波网/免费seo关键词优化服务
  • 政府网站建设管理现状 申论/刷排名seo软件
  • 哈尔滨cms模板建站/拼多多关键词排名查询工具
  • 本网站服务器设在美国服务器保护/如何做企业网页
  • 网站优化的学习/推广普通话的手抄报
  • 一个域名怎么用来做多个网站/爱站网挖掘词
  • 阿里云可以做网站吗/seo单页快速排名
  • 定制型网站制作/青岛今天发生的重大新闻
  • 上海网站自然排名优化价格/中视频自媒体平台注册官网
  • 玩弄已婚熟妇做爰网站/下载百度安装到桌面
  • 做网站一个月可以赚多少钱/站长工具同大全站
  • 肇庆高端模板建站/谷歌官网入口手机版
  • 做网站卖产品投资大嘛/新软件推广
  • 网站建设找天宇智能/互联网营销是什么意思
  • 成都网站建设树莓/seo页面内容优化
  • 微信小程序 拖拽签章
  • MySQL、PolarDB、PolarDB-X、TableStore、MongoDB、TiDB、ClickHouse选型
  • JS 解构赋值语法
  • 92、23种设计模式-单例模式
  • Transformer之多头注意力机制和位置编码(二)
  • 2025年5月架构设计师综合知识真题回顾,附参考答案、解析及所涉知识点(三)