SEO爱站网 logo SEO爱站网

你真的知道robots怎么用吗?实践胜雄辩!

优化入门 690 0 2018-12-23 13:00:37

相信各位站长都知道你的网站中有robots文件,但他的作用有哪些?还是有些站长一知半解的,接下来篇章教大家robots怎么用。

一、我们一个新站如果没把站内布局做完,可以用robots文件设置禁止搜索引擎抓取访问,它禁止全部蜘蛛爬行的语法是:

User-agent: *

Disallow: /

如果你想禁止个别搜索引擎蜘蛛,我拿谷歌的举例:

User-agent: Googlebot

Disallow: /

按理说我们设置了禁止这样蜘蛛就不会爬行了,然而事实真是这样吗?

篇章的答案是否定的。请看案例(以百度蜘蛛为例)

大家在百度搜索“淘宝”就能看到了,截图:

淘宝robots

结果显示:“由于该网站的robots.txt文件存在限制指令(限制搜索引擎抓取),系统无法提供该页面的内容描述”

而且是可以访问,(ps:这个是大的网站是特殊例外,笔者也想过之前做过查证,而且确实有这样的网站,只是在无意中看到的当时没有记录,实在抱歉今天再找却记不起来了)

应用:新网站测试,站长心想没有提交蜘蛛应该不会被收录,谁知被奇妙的收录了(ps:可怜的优化策略没有上马,就这样跟百度蜘蛛邂逅了)之后采取robots屏蔽发现这些需要时间不能达到预期效果,网站被竞争者窃取,由于时间紧急的原因,最后是关闭服务器提交死链才消除百度搜索收录记录。


2、robots.txt具有屏蔽死链接的作用,提交后会不会立马这些死链接会消失收录?

篇章的答案是否定的,因为我们都知道百度在各个省都有各个百度的服务器,因此不可能同时清楚缓存,为此我们可以ping一下百度。

操作过程:

一、打开系统的运行,快捷键是“WIN+R

二、输入ping-空格-百度域名-最后回车

操作完我们会看到这样的:

ping百度

我本地是上海的IP,它显示的是115.239.211.112 各位的IP肯定跟我不一样,因此验证了我上面所说。

不过想快速消失死链百度站长平台倒是有一个“死链提交”的功能,大家可以去看看,那是快速清除死链的方法,前些天试了一下,还挺好用,很快就能得到响应:

站长平台死链提交

不知道大家看完后有什么想说的,都可以在评论区评论一下,篇章会尽心回复的。

SEO篇章(www.seopz.com)语录:再牛逼的优化技术 也拼不过冒着傻气的坚持。


网友跟帖
展开