当前位置: 首页 > news >正文

网上服装商城网站建设方案策划书seo快排公司哪家好

网上服装商城网站建设方案策划书,seo快排公司哪家好,大片免费观看在线视频,做网站是哪个专业前言 有时候,我们需要往模型里面添加一些自定义的loss。 这些自定义的loss主要分为两大类: loss是基于样本的正确标签 yrealy_{real}yreal​ 和预测的logit ypredy_{pred}ypred​ 计算得到。这种loss主要集中在对分类损失的改进上,例如Foca…

前言

有时候,我们需要往模型里面添加一些自定义的loss。
这些自定义的loss主要分为两大类:

  1. loss是基于样本的正确标签 yrealy_{real}yreal 和预测的logit ypredy_{pred}ypred 计算得到。这种loss主要集中在对分类损失的改进上,例如Focal Loss等。
  2. loss需要模型的中间层信息参与运算。这种loss常见的就是对权重的正则化项,高级一点还有对抗机器学习里面的FGSM的对抗学习正则化项。

其中,第一类loss可以通过自定义loss函数,或者loss类,然后在模型compile的时候指定损失就可以了。
第二类loss则不能通过模型compile()函数来指定,而需要调用add_loss() 函数来指定。

第一类loss必须能够通过yrealy_{real}yrealypredy_{pred}ypred,以及某些额外的超参数 得到计算得到。
这种函数的输入是两个参数yrealy_{real}yrealypredy_{pred}ypred, 输出是一个tensor,tensor的必须得是对每个样本都输出一个值。
定义好之后,在model的compile里面指定就是了。

例如:

alpha1=0.2
alpha2=0.5
def custom_loss_function(y_true, y_pred):squared_difference = tf.square(y_true - y_pred)##如果计算过程需要用上超参数,则先在全局作用域定义超参数,然后在函数里面直接使用这些超参数。return tf.reduce_mean(squared_difference, axis=-1)model.compile(optimizer='adam', loss=custom_loss_function)

再比如 Focal Loss的定义:
在这里插入图片描述
其中γ\gammaγ 是一个超参数,用于调和loss,我们可以在实现的时候把它定义为一个全局的参数,然后再函数里面使用它就可以了。

第二类loss则是需要神经网络本身参与计算,例如L2正则化啥的。
这类loss的定义,一般是在网络搭建的后面,因为这些loss的计算能够方便的访问到中间层的输出或权重。

这种loss没有像第一类loss一样有输入输出的约定,loss一般就是用某个函数封装的任意计算图。
定义好loss之后,把调用模型的add_loss 函数把这部分计算图加到模型即可。

compile里面指定的loss和add_loss指定的loss的关系:
在keras的model.compile函数源码中可以看到如下的代码:

        with K.name_scope('loss'):for i in range(len(self.outputs)):if i in skip_target_indices:continuey_true = self.targets[i]y_pred = self.outputs[i]weighted_loss = weighted_losses[i]sample_weight = sample_weights[i]mask = masks[i]loss_weight = loss_weights_list[i]with K.name_scope(self.output_names[i] + '_loss'):output_loss = weighted_loss(y_true, y_pred,sample_weight, mask)if len(self.outputs) > 1:self.metrics_tensors.append(output_loss)self.metrics_names.append(self.output_names[i] + '_loss')if total_loss is None:total_loss = loss_weight * output_losselse:total_loss += loss_weight * output_lossif total_loss is None:if not self.losses:raise ValueError('The model cannot be compiled ''because it has no loss to optimize.')else:total_loss = 0.# Add regularization penalties# and other layer-specific losses.for loss_tensor in self.losses:total_loss += loss_tensor

前面是计算compile里面指定的loss,然后再把self.losses 里面损失加起来。
self.losses 就是模型(包括它使用到所有层)通过add_loss 函数添加的损失。

http://www.lbrq.cn/news/2454211.html

相关文章:

  • 58同城建设网站北京做的好的seo公司
  • 网站开发用到的编程网页优化seo广州
  • 大型租车门户网站商业版源码发布软文广告
  • 网站后台登录代码优化什么
  • 贵港网站开发视频号视频下载助手app
  • 花生壳做网站看网站时的关键词
  • 网站建设公司 2018网络营销推广机构
  • 河南企业做网站网站百度收录
  • 深圳民治做网站黄石seo诊断
  • 广东省住房城乡建设部网站北京网站优化步骤
  • dw做网站教程今日军事头条新闻
  • 凡客做网站手机访问另一部手机访问文件
  • 北海做网站有哪家好最新今日头条
  • 从事网站建设的工资百度app下载安装普通下载
  • 专业制作存单昆明seo案例
  • 网站做ssl证书有风险友情链接平台赚钱吗
  • 长春seo外包平台宝鸡百度seo
  • 什么是三合一网站建设关键词优化排名软件推荐
  • 企业网站建设招标技术标准seo网站优化师
  • 网站底部素材阿里云云服务平台
  • wap动态网站开发模板建站和开发网站区别
  • 企业小程序开发谷歌seo课程
  • 国外设计模板网站深圳网站seo地址
  • 动态网站建设试题和答案网络广告推广
  • 网站备案的原则郑州谷歌优化外包
  • 南昌网站优化百度推广app怎么收费
  • 高邮做网站推广普通话的意义简短
  • 抄袭别人网站seo技术网网
  • 网站建设与规划实验心得体会鼓楼网站seo搜索引擎优化
  • 免费咨询兽医沈阳关键词快照优化
  • 最优估计准则与方法(4)最小二乘估计(LS)_学习笔记
  • 消息缓存系统
  • uniapp 自定义tab栏切换
  • 文件被删除了怎么恢复?恢复方法总结与重点注意事项
  • Scrapy
  • ATR2652SGNSS全频段低噪声放大器