当前位置: 首页 > news >正文

建一个快讯网站要多少钱/seo资讯推推蛙

建一个快讯网站要多少钱,seo资讯推推蛙,成都网站建设 培训学校,wordpress 字体 插件1. AdaGrad AdaGrad算法是梯度下降法的改进算法,其优点是可以自适应学习率。该优化算法在较为平缓处学习速率大,有比较高的学习效率,在陡峭处学习率小,在一定程度上可以避免越过极小值点。在SDG优化算法中不能自适应学习率&#…

1. AdaGrad

AdaGrad算法是梯度下降法的改进算法,其优点是可以自适应学习率。该优化算法在较为平缓处学习速率大,有比较高的学习效率,在陡峭处学习率小,在一定程度上可以避免越过极小值点。在SDG优化算法中不能自适应学习率,如图1所示,在函数的初始位置比较平缓,利用AdaGrad优化算法可以很快的到达较优点,而SGD几乎没有移动。如图2所示,初始位置比较陡峭,AdaGrad优化算法会自动调整学习率,然后顺利的到达最优点,而SGD在学习率比较大的情况下会在斜坡两边来回摆动。AdaGrad的公式如下:
σt=1t+1∑i=0t(gi)2\sigma^t=\sqrt{\frac{1}{t+1}\sum^{t}_{i = 0}{(g_i)^2}}σt=t+11i=0t(gi)2

θt+1=θt−ησt+ψgt\theta^{t+1}=\theta^t-\frac{\eta}{\sigma^t+\psi}g^tθt+1=θtσt+ψηgt 其中gig_igi代表函数第iii次迭代的梯度,σt\sigma^tσt就是前面所有梯度的均值平方根。η\etaη是常数,一般取10−710^{-7}107,这是为了避免公式中分母为存在等于0的情况。η\etaη为常数,表示学习率。

演示代码见文章末尾附录部分

在这里插入图片描述

在这里插入图片描述

2. RMSProp

AdaGrad算法虽然解决了学习率无法根据当前梯度自动调整的问题,但是过于依赖之前的梯度,在梯度突然变化无法快速响应。RMSProp算法为了解决这一问题,在AdaGrad的基础上添加了衰减速率参数。也就是说在当前梯度与之前梯度之间添加了权重,如果当前梯度的权重较大,那么响应速度也就更快。RMSProp公式如下:
σt=α(1t∑i=0t−1(gi)2)+(1−α)(gt)2\sigma_t=\sqrt{\alpha(\frac{1}{t}\sum^{t-1}_{i = 0}{(g_i)^2})+(1-\alpha)(g^t)^2}σt=α(t1i=0t1(gi)2)+(1α)(gt)2
θt+1=θt−ησt+ψgt\theta_{t+1}=\theta_t-\frac{\eta}{\sigma_t+\psi}g^tθt+1=θtσt+ψηgt 公式中α\alphaα越大,那么受到之前梯度的影响就越大,AdaGrad算法和RMSProp算法比较如图3所示:

在这里插入图片描述

3. Adam

Adam优化算法是在RMSProp的基础上增加了动量。有时候通过RMSProp优化算法得到的值不是最优解,有可能是局部最优解,引入动量的概念时,求最小值就像一个球从高处落下,落到局部最低点时会继续向前探索,有可能得到更小的值,如下图4所示,Adam的公式如下:
mt=β⋅mt−1+(1−β)gt−1m_t=\beta·m_{t-1}+(1-\beta)g^{t-1}mt=βmt1+(1β)gt1
σt=α(1t∑i=0t−1(gi)2)+(1−α)(gt)2\sigma_t=\sqrt{\alpha(\frac{1}{t}\sum^{t-1}_{i = 0}{(g_i)^2})+(1-\alpha)(g^t)^2}σt=α(t1i=0t1(gi)2)+(1α)(gt)2
θt=θt−1+ησt+ψmt\theta_t=\theta_{t-1}+\frac{\eta}{\sigma_t+\psi}m_tθt=θt1+σt+ψηmt 其中mtm_tmt表示第t次迭代时的动量,同时在上一次动量和本次梯度之间加了一个权重系数β\betaβ,当β\betaβ越大,受到上一次动量的影响就越大。

torch.optim.Adam

Adam函数的常用参数如下:

  • params (iterable) – 需要优化的参数,参数类型为迭代器或字典。

  • lr (float, optional) – 学习率 (默认值: 1e-3)

  • betas (Tuple[float, float], optional) – 权重值,分别代表上面公式中的α\alphaαβ\betaβ (默认值: (0.9, 0.999))

在这里插入图片描述

参考文献

[1] 深度学习常见的优化算法
[2] Adam 算法
[3] torch 官方文档

附录

图1代码
import torch
import matplotlib.pyplot as plt
plt.rcParams['font.sans-serif']=['SimHei']
plt.rcParams['axes.unicode_minus'] = False# 初始化变量
adaGrad_x = torch.tensor(-10., requires_grad=True)
sgd_x = torch.tensor(-10., requires_grad=True)
adaGrad_optimizer = torch.optim.Adagrad([adaGrad_x], lr=1)
sgd_optimizer = torch.optim.SGD([sgd_x], lr=1)# 200次迭代优化
adaGrad_x_record, adaGrad_y_record = [], []
sgd_x_record, sgd_y_record = [], []
for i in range(200):# AdaGradadaGrad_y = 1/(1 + torch.exp(adaGrad_x))adaGrad_x_record.append(adaGrad_x.detach().item())adaGrad_y_record.append(adaGrad_y.detach().item())adaGrad_optimizer.zero_grad()adaGrad_y.backward()adaGrad_optimizer.step()# SGDsgd_y = 1/(1 + torch.exp(sgd_x))sgd_x_record.append(sgd_x.detach().item())sgd_y_record.append(sgd_y.detach().item())sgd_optimizer.zero_grad()sgd_y.backward()sgd_optimizer.step()# y = 1/(1+e^x)
a = torch.linspace(-10, 10, 1000)
b = 1/(1 + torch.exp(a))# 创建画布
plt.figure(figsize=(12, 4))# AdaGrad
plt.subplot(1, 2, 1)
plt.plot(a, b)
plt.scatter(adaGrad_x_record, adaGrad_y_record, c='r', alpha=0.5)
plt.title('AdaGrad')
plt.grid()
# SGD
plt.subplot(1, 2, 2)
plt.plot(a, b)
plt.scatter(sgd_x_record, sgd_y_record , c='r', alpha=0.5)
plt.title('SGD')
plt.grid()
# 显示图片
plt.suptitle('图1', y=0)
plt.show()
图2代码
import torch
import matplotlib.pyplot as plt
plt.rcParams['font.sans-serif']=['SimHei']
plt.rcParams['axes.unicode_minus'] = FalseadaGrad_x = torch.tensor(-10., requires_grad=True)
sgd_x = torch.tensor(-10., requires_grad=True)
adaGrad_optimizer = torch.optim.Adagrad([adaGrad_x], lr=1)
sgd_optimizer = torch.optim.SGD([sgd_x], lr=1)# 100次迭代优化
adaGrad_x_record, adaGrad_y_record = [], []
sgd_x_record, sgd_y_record = [], []
for i in range(100):# AdaGradadaGrad_y = adaGrad_x ** 2adaGrad_x_record.append(adaGrad_x.detach().item())adaGrad_y_record.append(adaGrad_y.detach().item())adaGrad_optimizer.zero_grad()adaGrad_y.backward()adaGrad_optimizer.step()# SGDsgd_y = sgd_x ** 2sgd_x_record.append(sgd_x.detach().item())sgd_y_record.append(sgd_y.detach().item())sgd_optimizer.zero_grad()sgd_y.backward()sgd_optimizer.step()# y = x^2
a = torch.linspace(-10, 10, 1000)
b = a ** 2# 创建画布
plt.figure(figsize=(12, 4))# AdaGrad
plt.subplot(1, 2, 1)
plt.plot(a, b)
plt.scatter(adaGrad_x_record, adaGrad_y_record, c='r', alpha=0.5)
plt.title('AdaGrad')
plt.grid()
# SGD
plt.subplot(1, 2, 2)
plt.plot(a, b)
plt.scatter(sgd_x_record, sgd_y_record , c='r', alpha=0.5)
plt.title('SGD')
plt.grid()
# 显示图片
plt.suptitle('图2', y=0)
plt.show()
图3代码
import torch
import matplotlib.pyplot as plt
plt.rcParams['font.sans-serif']=['SimHei']
plt.rcParams['axes.unicode_minus'] = False# 初始化变量
adaGrad_x = torch.tensor(-20., requires_grad=True)
rmsProp_x = torch.tensor(-20., requires_grad=True)
adaGrad_optimizer = torch.optim.Adagrad([adaGrad_x], lr=1)
rmsProp_optimizer = torch.optim.RMSprop([rmsProp_x], lr=1)# 200次迭代优化
adaGrad_x_record, adaGrad_y_record = [], []
rmsProp_x_record, rmsProp_y_record = [], []
for i in range(200):# AdaGradadaGrad_y = 1/(1 + torch.exp(adaGrad_x))adaGrad_x_record.append(adaGrad_x.detach().item())adaGrad_y_record.append(adaGrad_y.detach().item())adaGrad_optimizer.zero_grad()adaGrad_y.backward()adaGrad_optimizer.step()# RMSProprmsProp_y = 1/(1 + torch.exp(rmsProp_x))rmsProp_x_record.append(rmsProp_x.detach().item())rmsProp_y_record.append(rmsProp_y.detach().item())rmsProp_optimizer.zero_grad()rmsProp_y.backward()rmsProp_optimizer.step()# y = 1/(1+e^x)
a = torch.linspace(-20, 20, 1000)
b = 1/(1 + torch.exp(a))# 创建画布
plt.figure(figsize=(12, 4))# AdaGrad
plt.subplot(1, 2, 1)
plt.plot(a, b)
plt.scatter(adaGrad_x_record, adaGrad_y_record, c='r', alpha=0.5)
plt.title('AdaGrad')
plt.grid()
# RMSProp
plt.subplot(1, 2, 2)
plt.plot(a, b)
plt.scatter(rmsProp_x_record, rmsProp_y_record , c='r', alpha=0.5)
plt.title('RMSProp')
plt.grid()
# 显示图片
plt.suptitle('图3', y=0)
plt.show()
图4代码
import torch
import matplotlib.pyplot as plt
plt.rcParams['font.sans-serif']=['SimHei']
plt.rcParams['axes.unicode_minus'] = False# 初始化变量
rmsProp_x = torch.tensor(-10., requires_grad=True)
adam_x = torch.tensor(-10., requires_grad=True)
rmsProp_optimizer = torch.optim.RMSprop([rmsProp_x], lr=1)
adam_optimizer = torch.optim.Adam([adam_x], lr=1, betas=(0.9, 0.61))# 40次迭代优化
rmsProp_x_record, rmsProp_y_record = [], []
adam_x_record, adam_y_record = [], []
for i in range(40):# RMSProprmsProp_y =  16 * rmsProp_x ** 2 - rmsProp_x ** 3rmsProp_x_record.append(rmsProp_x.detach().item())rmsProp_y_record.append(rmsProp_y.detach().item())rmsProp_optimizer.zero_grad()rmsProp_y.backward()rmsProp_optimizer.step()# Adamadam_y =  16 * adam_x ** 2 - adam_x ** 3adam_x_record.append(adam_x.detach().item())adam_y_record.append(adam_y.detach().item())adam_optimizer.zero_grad()adam_y.backward()adam_optimizer.step()# y = 16*x^2-x^3
a = torch.linspace(-10., 20., 1000)
b = 16 * a ** 2 - a ** 3# 创建画布
plt.figure(figsize=(12, 4))# RMSProp
plt.subplot(1, 2, 1)
plt.plot(a, b)
plt.scatter(rmsProp_x_record, rmsProp_y_record, c='r', alpha=0.5)
plt.title('RMSProp')
plt.grid()
# Adam
plt.subplot(1, 2, 2)
plt.plot(a, b)
plt.scatter(adam_x_record, adam_y_record , c='r', alpha=0.5)
plt.title('Adam')
plt.grid()
# 显示图片
plt.suptitle('图4', y=0)
plt.show()
http://www.lbrq.cn/news/1598869.html

相关文章:

  • 网站建设 推广/怎么注册网站平台
  • 织梦制作网站如何上线/seo海外
  • 如何做网站链接分享朋友圈/线上营销渠道
  • 江苏建设信息网站有时候打不开/做推广的公司一般都叫什么
  • 网站换空间的流程/宣传网页制作
  • 网站网络推广/百度一下就知道手机版
  • 东莞网站建设关键词/外贸网站制作公司
  • 自己做网站的难度/西安小程序开发的公司
  • 桓台网站/星巴克seo网络推广
  • 苏州市网站制作/北京网站优化对策
  • 做外国网用哪些网站有哪些/注册网站域名
  • 公司做网站做什么类型的网站好/求网址
  • 加强意识形态建设 办好政协网站/网站维护工作内容
  • 贵州网站制作设计公司哪家好/怎么自己做一个网址
  • 群晖nas做网站服务器/安卓优化大师app下载安装
  • 合肥城乡建设网站首页/网络营销推广优化
  • 水车头采集wordpress内容/大侠seo外链自动群发工具
  • 动态网站开发实训总结/bt最佳磁力搜索引擎
  • wordpress调用相关文章/重庆公司seo
  • 做视频小网站犯法吗/德州seo整站优化
  • 英文外贸网站设计/数据分析师35岁以后怎么办
  • 山东省建设节能协会网站/net的网站建设
  • 日本r影片网站做我的奴隶/晚上看b站
  • 折扣券网站怎么做/山东最新消息今天
  • 怎样做营销型网站推广/流量平台有哪些
  • 做网站如何防止被坑/哈尔滨seo优化软件
  • dreamweaver设计网页步骤/自己做seo网站推广
  • 北京网站建设 降龙网/2022最新小学生新闻
  • 北京网站开发建设/软文营销文章
  • 自己做网站的图片/中国十大搜索引擎排名最新
  • 京东商品详情API技术文档框架及Python实现方案
  • sqli-labs-master/Less-31~Less-40
  • Array容器学习
  • JS--获取事件的子元素与父元素
  • Nginx vs Spring Cloud Gateway:限流功能深度对比与实践指南
  • 期权投资盈利之道书籍推荐