当前位置: 首页 > news >正文

中企动力邮箱/上海短视频seo优化网站

中企动力邮箱,上海短视频seo优化网站,微型网站 源码,WordPress bridge修改内容目录:感知机简介感知机,模仿神经元,是神经网络中的基本单元。它有多个输入,一个输出。输入后,每个输入Xi乘以相应权重Wi相加,其总和再通过与阈值B相减,得到一个大于等于0或小于0的值&#x…

内容目录:

感知机简介

f9d91ea31095cf0f3ae5b46f6296dde1.gif
感知机,模仿神经元,是神经网络中的基本单元。
它有多个输入,一个输出。
输入后,每个输入Xi乘以相应权重Wi相加,其总和再通过与阈值B相减,得到一个大于等于0或小于0的值,若大于0,输出1,否则输出-1。
现在如果感知机被训练“成熟”,能正确输出“+1”、“-1”,判断“是”、“非”。即,将所有样本点正确分类。那么想象它的权重向量W和偏移B,构成了一个超平面。这个超平面把这个世界一分为二,若一边“是”的样本,一边“非”的样本,它本身,就是是非的准则

如果用绘制图像来阐述,那就是,如果“是”判断成了“非”,超平面首先朝“是”的反方向平移,相当于降低阈值。这样造成我们判断的结果整体倾向于“是”。

接着,我们假设此时空间样本点为X0,那么其正确结果应为“是”,即“+1”,我们把空间点(X0,1)构成的向量称作V,是我们期待的正确方向;现在我们的分类超平面Y=WX+B,试图朝着方向V旋转,以做调整。

ffbdeabb43ba9c67ae20c7846ea36d7b.png

这种调整如何得来,为什么它是正确的?

因为如果我们把X0样本点进行了错误归类,产生错误结果-1。那么这次错误的损失可以量化为-(WX0+B)。当X0已知,我们想针对(W,B)寻求一种变化,这种变化的结果使以上损失接近最小值,那就是沿着的梯度方向走,也就是朝变化最快的方向调整。

  1. 感知机模型
  2. 感知机学习策略
  3. 感知机学习方法
  4. 感知机模型收敛性分析
  5. 感知机模型对偶形式
  6. 感知机的衍生

1. 感知机模型

2734792d320ebf202c2b24d8bb38f62e.png

130d2bdd3e33b23358a7601ccb78f8e0.png

ac62db6f1186a696919447b42bb9cbc7.png

c3f51ff7d9952fbc9a63169669bdfa08.png

2. 感知机学习策略

4629a4614f77987ab9c9bc18b82016ba.png

4a8d6578d5ec77a1e9d1f6c1302a5250.png
for k in range(iter):#对于每一个样本进行梯度下降#李航书中在2.3.1开头部分使用的梯度下降,是全部样本都算一遍以后,统一#进行一次梯度下降#在2.3.1的后半部分可以看到,此时用的是随机梯度下降,即计算一个样本就针对该样本进行一次梯度下降。#两者的差异各有千秋,但较为常用的是随机梯度下降。for i in range(m):#获取当前样本的向量xi = dataMat[i]#获取当前样本所对应的标签yi = labelMat[i]#判断是否是误分类样本#误分类样本特诊为: -yi(w*xi+b)>=0,详细可参考书中2.2.2小节#在书的公式中写的是>0,实际上如果=0,说明改点在超平面上,也是不正确的if -1 * yi * (w * xi.T + b) >= 0:#对于误分类样本,进行梯度下降,更新w和bw = w + h *  yi * xib = b + h * yi

3. 感知机学习算法

c68573632c386e9bc2a526eb6bcae52d.png

2a34996a7dde6bad01829c6b778f35af.png

4. 感知学习算法的收敛性

ce54d669d44493353c28e6e442ac1145.png

5.感知学习算法的对偶形式

a35c90035d5ca0ca6c287641c78fdcc7.png

254efb47f0f5f8a70cc2cd4306d23757.png

6. 感知机的衍生

感知机作为神经网络和支持向量机的理论基础,相信任何有机器学习基础的同学都清楚其模型细节。简单而言,感知机就是一个旨在建立一个线性超平面对线性可分的数据集进行分类的线性模型。其基本结构如下所示:

753fcd7da73bdb78031b51c83afc7dc4.png

上图从左到右为感知机模型的计算执行方向,模型接受了X1、X2、X3三个输入,将输入与权值参数W进行加权求和并经过 sigmoid 函数进行激活,将激活结果作为 y 进行输出。这便是感知机执行前向计算的基本过程。这样就行了吗?当然不行。按照李航老师的统计学习三要素来打分,刚刚我们只解释了模型,对策略和算法并未解释。当我们执行完前向计算得到输出之后,模型需要根据你的输出和实际的输出按照损失函数计算当前损失,计算损失函数关于权值和偏置的梯度,然后根据梯度下降法更新权值和偏置。经过不断的迭代调整权值和偏置使得损失最小,这便是完整的单层感知机的训练过程。

eea87e774b3e72ac740399c13b54d60e.png

上述的单层感知机包含两层神经元,即输入与输出神经元,可以非常容易的实现逻辑与、或和非等线性可分情形,但终归而言,这样的一层感知机的学习能力是非常有限的,对于像异或这样的非线性情形,单层感知机就搞不定了。其学习过程会呈现一定程度的振荡,权值参数 w 难以稳定下来,最终不能求得合适的解。

dedf41a99f157f88a80bc87e5d590c8e.png

对于非线性可分的情况,在感知机基础上一般有了两个解决方向,一个就是著名的支持向量机模型,旨在通过核函数映射来处理非线性的情况,这里我们不多谈,读者朋友们可以去回顾复习机器学习中有关的内容,而另一种就是神经网络模型。这里的神经网络模型也叫多层感知机(MLP: Muti-Layer Perception),与单层的感知机在结构上的区别主要在于 MLP 多了若干隐藏层,这使得神经网络对非线性的情况拟合能力大大增强。

代码参考:

https://github.com/zjgulai/lihang_book_algorithm​github.com

更多详情:

http://mp.weixin.qq.com/s?__biz=MzI0ODM4MDQ2Nw==&mid=100002381&idx=1&sn=448006a3a2282ce4a2df36e9887e555a&chksm=69a0e7115ed76e073263b6d51c6a4afe569952fc90dffb4a1188f8d8764d21792dace7339363#rd​mp.weixin.qq.com
aeae4559b69bf74eeee0c08ac7c1920e.png
「李航」统计学方法手写笔记|第二章:感知机「李航」统计学方法手写笔记|第二章:感知机​mp.weixin.qq.com
aeae4559b69bf74eeee0c08ac7c1920e.png

d3596b6078fd2c4b7b7bc1853d95dcc5.png
http://www.lbrq.cn/news/1600327.html

相关文章:

  • 郑州做的比较好网站公司/网站首页seo关键词布局
  • 天河区建设水务局网站/广州抖音推广公司
  • jsp做的简单的图书馆网站/青岛网站建设公司排名
  • 成都住建局官网查询入口/网站seo搜索引擎优化怎么做
  • 用git 做网站/成都seo培训班
  • pc网站转wap网站/成人英语培训班哪个机构好
  • 建站公司服务费包括哪些/seo兼职怎么收费
  • net网站阿里云主机配置/免费网站java源码大全
  • 网站维护更新/营销策略模板
  • 找做模型方案去哪个网站/seo查询排名软件
  • 二级域名 wordpress/郑州seo优化阿亮
  • 沈阳网站制作平台/谷歌广告联盟
  • 搭建论坛网站/百度助手下载
  • 做网赌网站怎么推广拉人/杭州seo推广服务
  • 中国4a广告公司有哪些/东莞seo推广
  • 廊坊怎么做网站/北京刚刚宣布比疫情更可怕的事情
  • 企业网站建设的常见流程/广东百度推广的代理商
  • 网站建设狼雨/海淀网站建设公司
  • 做搞基视频网站/推广营销app
  • 电商网站网址大全/关键字挖掘
  • 武冈 网站建设/app推广文案
  • 毕节市建设厅网站/百度搜索广告怎么收费
  • 重庆网站设计方案/公司软文代写
  • 做的好的ppt下载网站/百度站长收录提交入口
  • 网站怎么做发送邮件的超链接/东莞seo建站公司哪家好
  • 后台更改公司网站背景图片/百度推广手机版
  • 影视网站怎么做app/5118大数据平台官网
  • wordpress 本地运行慢/郑州网络seo公司
  • 微网站建设开发/推广方案设计
  • 苏州专业做网站/爱站网seo工具包
  • linux下docker安装ollama
  • AI Agents漏洞百出,恶意提示等安全缺陷令人担忧
  • 【Java】一篇详解HashMap的扩容机制!!
  • 【硬件-笔试面试题】硬件/电子工程师,笔试面试题-56,(知识点:电源模块,DCDC电源,LDO电源,原理及其特点)
  • 井盖识别数据集-2,700张图片 道路巡检 智能城市
  • 面向智能体的上下文工程:策略、实现与 LangGraph 实践