当前位置: 首页 > news >正文

运营网站需要多少钱/360seo

运营网站需要多少钱,360seo,网站上线之前做哪些工作,百度xml网站地图2019独角兽企业重金招聘Python工程师标准>>> 本站的配置很简单,因为刚建成哈。 User-agent: * Disallow: /wp- 一、先来普及下robots.txt的概念: robots.txt(统一小写)是一种存放于网站根目录下的ASCII编码的文本文件,它通常告诉网…

2019独角兽企业重金招聘Python工程师标准>>> hot3.png

本站的配置很简单,因为刚建成哈。

User-agent: *

Disallow: /wp-

一、先来普及下robots.txt的概念:

  robots.txt(统一小写)是一种存放于网站根目录下的ASCII编码的文本文件,它通常告诉网络搜索引擎的漫游器(又称网络蜘蛛),此网站中的哪些内容是不能被搜索引擎的漫游器获取的,哪些是可以被(漫游器)获取的。这个文件用于指定spider在您网站上的抓取范围,一定程度上保护站点的安全和隐私。同时也是网站优化利器,例如屏蔽捉取站点的重复内容页面。

  robots.txt目前并不是一种标准,只是一种协议!所以现在很多搜索引擎对robots.txt里的指令参数都有不同的看待。

  二、使用robots.txt需要注意的几点地方:a

  1、指令区分大小写,忽略未知指令,下图是本博客的robots.txt文件在Google管理员工具里的测试结果;

  2、每一行代表一个指令,空白和隔行会被忽略;

  3、“#”号后的字符参数会被忽略;

  4、有独立User-agent的规则,会排除在通配“*”User agent的规则之外;

  5、可以写入sitemap文件的链接,方便搜索引擎蜘蛛爬行整站内容。

  6、尽量少用Allow指令,因为不同的搜索引擎对不同位置的Allow指令会有不同看待。

  三、Wordpress的robots.txt优化设置

  1、User-agent: *

  一般博客的robots.txt指令设置都是面对所有spider程序,用通配符“*”即可。如果有独立User-agent的指令规则,尽量放在通配“*”User agent规则的上方。

  2、

   Disallow: /wp-admin/

  Disallow: /wp-content/

  Disallow: /wp-includes/

  屏蔽spider捉取程序文件,同时也节约了搜索引擎蜘蛛资源。

  3、Disallow: /*/trackback

  每个默认的文章页面代码里,都有一段trackback的链接,如果不屏蔽让蜘蛛去捉取,网站会出现重复页面内容问题。

  4、Disallow: /feed

  Disallow: /*/feed

  Disallow: /comments/feed

  头部代码里的feed链接主要是提示浏览器用户可以订阅本站,而一般的站点都有RSS输出和网站地图,故屏蔽搜索引擎捉取这些链接,节约蜘蛛资源。

  5、Disallow: /?s=*

  Disallow: /*/?s=*

  这个就不用解释了,屏蔽捉取站内搜索结果。站内没出现这些链接不代表站外没有,如果收录了会造成和TAG等页面的内容相近。

  6、Disallow: /?r=*

  屏蔽留言链接插件留下的变形留言链接。(没安装相关插件当然不用这条指令)

  7、Disallow: /*.jpg$

  Disallow: /*.jpeg$

  Disallow: /*.gif$

  Disallow: /*.png$

  Disallow: /*.bmp$

  屏蔽捉取任何图片文件,在这里主要是想节约点宽带,不同的网站管理员可以按照喜好和需要设置这几条指令。

  8、Disallow: /?p=*

  屏蔽捉取短链接。默认头部里的短链接,百度等搜索引擎蜘蛛会试图捉取,虽然最终短链接会301重定向到固定链接,但这样依然造成蜘蛛资源的浪费。

  9、Disallow: /*/comment-page-*

  Disallow: /*?replytocom*

  屏蔽捉取留言信息链接。一般不会收录到这样的链接,但为了节约蜘蛛资源,也屏蔽之。

  10、Disallow: /a/date/

  Disallow: /a/author/

  Disallow: /a/category/

  Disallow: /?p=*&preview=true

  Disallow: /?page_id=*&preview=true

  Disallow: /wp-login.php

  屏蔽其他的一些形形色色的链接,避免造成重复内容和隐私问题。

  10、Sitemap:http://***.com/sitemap.txt

  网站地图地址指令,主流是txt和xml格式。告诉搜索引擎网站地图地址,方便搜索引擎捉取全站内容,当然你可以设置多个地图地址。要注意的就是Sitemap的S要用大写,地图地址也要用绝对地址。

  上面的这些Disallow指令都不是强制要求的,可以按需写入。也建议站点开通谷歌管理员工具,检查站点的robots.txt是否规范。

  好了,以上就是对利用robots.txt对wordpress博客进行优化的详细内容,希望可以帮助和我一样刚接触wordpress博客的同学。

——

本文摘录:http://www.williamlong.info/archives/3384.html


转载于:https://my.oschina.net/ykuaile/blog/357835

http://www.lbrq.cn/news/1300465.html

相关文章:

  • wordpress 更新 慢/如何对一个网站进行seo
  • 做网站为什么要买服务器/网店运营教学
  • 互联网站安全服务平台操作指南/免费公司网站建站
  • 苏州保洁/新塘网站seo优化
  • 网站怎么在百度搜到/如何利用网络进行推广和宣传
  • wordpress 小程序/免费seo优化
  • 网站建设的基本术语/网络营销的模式有哪些
  • vs c 网站开发/二维码引流推广的平台
  • 永久的免费网站地址/网络营销策划的内容
  • dede 网站地图 文章/经营管理培训课程
  • 自己做网站怎么做/我想做网络推广
  • 网站模板演示怎么做/新闻头条最新消息今日头条
  • 营销型网站建设的概念/宁波网站推广网站优化
  • 互助县公司网站建设/新开店铺怎么做推广
  • 响应式网站自助建设/百度识图入口
  • 网站重构怎么做/网络营销的应用研究论文
  • 代做毕设网站推荐/解析域名网站
  • 长沙建站公司做网站/百度指数疫情
  • 福州网站建设报价/直播网站排名
  • 常州辉煌网络网站建设/真正的免费建站在这里
  • 国外网站怎么做引流/软文网站
  • 网站建设要钱么/杭州seo外包服务
  • 网站怎样在360做优化/怎么建立自己的网站
  • 帝国cms添加网站地图/拼多多seo是什么意思
  • 海外网站有哪些/山东网站建设
  • 安什么网站建设/百度快照收录入口
  • 怎样做一个app/seo外包服务方案
  • 亚马逊做code的网站/外贸网站平台
  • 自己的电脑怎么做网站/seo优化入门教程
  • 网站关键词几个最好/软文营销的技巧有哪些?
  • 发明专利怎么写,与学术文章异同点与注意事项
  • Python+ArcGIS+AI蒸散发与GPP估算|Penman-Monteith模型|FLUXNET数据处理|多源产品融合|专业科研绘图与可视化等
  • Jenkins自动化部署.NET应用实战:Docker+私有仓库+SSH远程发布
  • 【后端】.NET Core API框架搭建(10) --配置163邮件发送服务
  • JAVA面试宝典 -《Kafka 高吞吐量架构实战:原理解析与性能优化全攻略》
  • 学习OpenCV---显示图片