随着互联网的飞速发展,网站SEO(搜索引擎优化)成为了网站运营的重要环节。而WordPress作为全球最受欢迎的博客和内容管理系统,其SEO优化更是备受关注。其中,WordPress的Robots设置是SEO优化的关键之一。本文将详细介绍WordPress Robots设置,帮助您优化网站排名,提高搜索引擎收录。
一、什么是WordPress Robots设置?
WordPress Robots设置,即robots.txt文件,它是一种文本文件,用于告诉搜索引擎哪些页面可以访问,哪些页面需要被排除。简单来说,Robots设置就像是网站的“门卫”,控制着搜索引擎的“进出”。
二、WordPress Robots设置的作用
1. 控制搜索引擎收录页面:通过Robots设置,您可以告诉搜索引擎哪些页面需要被收录,哪些页面不需要被收录。
2. 防止搜索引擎爬取敏感页面:例如,您的网站可能包含一些用户隐私信息或者敏感内容,通过Robots设置,您可以防止搜索引擎爬取这些页面。
3. 提高网站加载速度:通过排除一些不需要被搜索引擎爬取的页面,可以减少搜索引擎爬虫的访问,从而提高网站加载速度。
三、WordPress Robots设置方法
1. 登录WordPress后台
2. 进入“设置”-“阅读”页面
3. 在“搜索引擎可见性”选项卡中,找到“Discourage search engines from indexing this site”选项,勾选它
4. 点击“保存更改”按钮
这样,WordPress网站就设置了Robots设置。但是,这只是一个基础的设置,为了更好地优化SEO,您可能需要进一步修改Robots.txt文件。
四、WordPress Robots.txt文件详解
1. Robots.txt文件结构
Robots.txt文件由以下几部分组成:
“`
User-agent: * 指定爬虫名称
Disallow: / 排除目录
Allow: /index.html 允许访问的页面
“`
2. Robots.txt文件常用指令
指令 | 说明 |
---|---|
User-agent:* | 指定爬虫名称,*表示所有爬虫 |
Disallow:/ | 排除目录或页面 |
Allow:/index.html | 允许访问的页面 |
Crawl-delay:10 | 爬虫爬取间隔,单位为秒 |
Sitemap:http://www.example.com/sitemap.xml | 指定网站地图的URL |
3. WordPress Robots.txt文件示例
以下是一个WordPress网站的Robots.txt文件示例:
“`
User-agent: *
Disallow: /wp-admin/
Disallow: /wp-includes/
Disallow: /readme.html
Disallow: /license.txt
Disallow: /index.php
Allow: /index.html
Sitemap: http://www.example.com/sitemap.xml
“`
在这个示例中,我们排除了wp-admin、wp-includes、readme.html、license.txt、index.php等目录或页面,并指定了网站地图的URL。
五、WordPress Robots设置注意事项
1. 不要过度排除页面:虽然Robots设置可以帮助您控制搜索引擎收录,但过度排除页面可能会影响网站的SEO效果。
2. 注意排除敏感页面:例如,包含用户隐私信息或者敏感内容的页面,应该通过Robots设置进行排除。
3. 定期检查Robots设置:由于网站内容会不断更新,因此建议您定期检查Robots设置,确保其符合网站需求。
总结
WordPress Robots设置是SEO优化的关键之一,通过合理设置Robots.txt文件,您可以控制搜索引擎收录页面,提高网站排名。本文详细介绍了WordPress Robots设置,希望对您有所帮助。在设置Robots设置时,请注意以上注意事项,以确保网站SEO效果。
如何利用robots.txt对wordpress博客进行优化
一、先来普及下robots.txt的概念:
robots.txt(统一小写)是一种存放于网站根目录下的ASCII编码的文本文件,它通常告诉网络搜索引擎的漫游器(又称网络蜘蛛),此网站中的哪些内容是不能被搜索引擎的漫游器获取的,哪些是可以被(漫游器)获取的。这个文件用于指定spider在您网站上的抓取范围,一定程度上保护站点的安全和隐私。同时也是网站优化利器,例如屏蔽捉取站点的重复内容页面。
robots.txt目前并不是一种标准,只是一种协议!所以现在很多搜索引擎对robots.txt里的指令参数都有不同的看待。
二、使用robots.txt需要注意的几点地方:
1、指令区分大小写,忽略未知指令,下图是本博客的robots.txt文件在Google管理员工具里的测试结果;
2、每一行代表一个指令,空白和隔行会被忽略;
3、“#”号后的字符参数会被忽略;
4、有独立User-agent的规则,会排除在通配“*”User agent的规则之外;
5、可以写入sitemap文件的链接,方便搜索引擎蜘蛛爬行整站内容。
6、尽量少用Allow指令,因为不同的搜索引擎对不同位置的Allow指令会有不同看待。
三、Wordpress的robots.txt优化设置
1、User-agent:*
一般博客的robots.txt指令设置都是面对所有spider程序,用通配符“*”即可。如果有独立User-agent的指令规则,尽量放在通配“*”User agent规则的上方。
2、Disallow:/wp-admin/
Disallow:/wp-content/
Disallow:/wp-includes/
屏蔽spider捉取程序文件,同时也节约了搜索引擎蜘蛛资源。
3、Disallow:/*/trackback
每个默认的文章页面代码里,都有一段trackback的链接,如果不屏蔽让蜘蛛去捉取,网站会出现重复页面内容问题。
4、Disallow:/feed
Disallow:/*/feed
Disallow:/comments/feed
头部代码里的feed链接主要是提示浏览器用户可以订阅本站,而一般的站点都有RSS输出和网站地图,故屏蔽搜索引擎捉取这些链接,节约蜘蛛资源。
5、Disallow:/?s=*
Disallow:/*/?s=*
这个就不用解释了,屏蔽捉取站内搜索结果。站内没出现这些链接不代表站外没有,如果收录了会造成和TAG等页面的内容相近。
6、Disallow:/?r=*
屏蔽留言链接插件留下的变形留言链接。(没安装相关插件当然不用这条指令)
7、Disallow:/*.jpg$
Disallow:/*.jpeg$
Disallow:/*.gif$
Disallow:/*.png$
Disallow:/*.bmp$
屏蔽捉取任何图片文件,在这里主要是想节约点宽带,不同的网站管理员可以按照喜好和需要设置这几条指令。
8、Disallow:/?p=*
屏蔽捉取短链接。默认头部里的短链接,百度等搜索引擎蜘蛛会试图捉取,虽然最终短链接会301重定向到固定链接,但这样依然造成蜘蛛资源的浪费。
9、Disallow:/*/comment-page-*
Disallow:/*?replytocom*
屏蔽捉取留言信息链接。一般不会收录到这样的链接,但为了节约蜘蛛资源,也屏蔽之。
10、Disallow:/a/date/
Disallow:/a/author/
Disallow:/a/category/
Disallow:/?p=*&preview=true
Disallow:/?page_id=*&preview=true
Disallow:/wp-login.php
屏蔽其他的一些形形色色的链接,避免造成重复内容和隐私问题。
10、Sitemap:http://***.com/sitemap.txt
网站地图地址指令,主流是txt和xml格式。告诉搜索引擎网站地图地址,方便搜索引擎捉取全站内容,当然你可以设置多个地图地址。要注意的就是Sitemap的S要用大写,地图地址也要用绝对地址。
上面的这些Disallow指令都不是强制要求的,可以按需写入。也建议站点开通谷歌管理员工具,检查站点的robots.txt是否规范。
wordpress中robots.txt不显示怎么办
解决办法:
1、首先打开程序,在wp-includes目录下找到functions.php文件;
2、然后用记事本打开或者是用dreamweaver打开,用dreamweaver进行编辑,打开functions.php文件,找到function do_robots(),大概在1070行左右,可以看到系统默认的robots.txt文件的定义规则。
3、按照上面的规则样式来重新编写,将网站需要添加的内容添加到这段代码里面。
4、添加好之后然后点击保存,这时候就可以打开网站查看网站robots.txt是否完整了
wordpress怎么屏蔽蜘蛛wordpress蜘蛛插件
如何在wordpress中设置阻止搜索引擎搜索?
wordpress系统本身是搜索引擎友好的。如果网站内容是私密的,不希望蜘蛛抓取,可以通过以下方法实现:
1.输入“设置”-然后勾选“建议搜索引擎不要对此站点进行索引”,再点击“保存更改”。这样搜索引擎就不会收录和索引网站了。
2.还可以通过配置“robots.txt”告诉搜索引擎不要收录/索引网站内容;
步骤:
1)、新建一个文本文档,重命名为“robots.txt”;
2)、将以下内容粘贴到文本文件中并保存:
用户代理:*
不允许:/
3)、将设置好的“robots.txt”上传到网站根目录。
wordpress实现独立下载页?
网上还是有资料可查的,需要重新安装一个wp程序实现独立下载页面。
1、在网站根目录下建立一个dl文件夹,上传wordpress程序,建立一个新的wordpress站点2、在robots.txt文件中写入代码禁止蜘蛛抓取dl文件夹下的所有页面:Disallow:/dl/3、在刚成立的http://你的站点/dl后台中,设置固定连接样式4、选择一款合适的主题,用来做下载页面,有能力的也可自己写一个主题,只需要简单的一个css文件及single.php页面。其他的文件我们用不到。5、.禁止用户浏览http://你的站点/dl页面,也就是我们子目录站点的首页。希望能帮到你(美设之家)