SEO学习网站
2021-10-31
之前的文章中我们将了如何正确编写robots.txt协议,如果你对robots.协议文件编写不太了解,可以参考我们之前写的文章,里面有详细介绍了关于robots相关规则及注意事项,以避免新手
之前的文章中我们将了如何正确编写robots.txt协议,如果你对robots.协议文件编写不太了解,可以参考我们之前写的文章,里面有详细介绍了关于robots相关规则及注意事项,以避免新手或老手犯同样的错误,编写完这个文件之后,应该上传到哪个位置呢?针对学员的疑惑,我们将详细的讲解这些细节要点。
编写robots.txt协议文件已经是非常辛苦的事情,如果后面上传错误了,那真的就白费功夫了,很多新手或一些从业者,也会犯一些比较常见的错误,所以在上传网站位置你还真得谨慎。
就目前而言,robots协议文件没有放到网站特定目录一说,也就是说即使你放到某特定目录文件下,也不能使得该协议文件发生任何作用。
包括谷歌、百度等搜索引擎都是不允许放在网站特定的目录下,因为这样robots协议将毫无意义。
当然有点经验的SEO优化师可能会想另辟蹊径,想让robots在网站特定目录下发生作用,而在不影响网站其它的目录,其实这用处不大,搜索引擎程序进来首先会看要没有这个文件,如果这样放,那么这跟没设置毫无区别。
因此,官方规定,robots.txt协议文件通常放在根据目录之下,这样才能起到限制搜索引擎蜘蛛的作用。
上传成功之后就万事大吉了吗?还没有,接下来我们先来认识一下robots网址是否有效,这对robots的认识将会加深。
1)http://xxx.com/robots.txt
有效:
http://xxx.com/
http://xxxx.com/dog/dogs
无效:
http://other.xxx.com/
https://xxx.com/
http://xxx.com:8181/
2)http://www.xxx.com/robots.txt
有效
http://www.xxx.com/
无效
http://xxx.com/
http://shop.www.xxx.com/
http://www.shop.xxx.com/
3)http://xxx.com/www/robots.txt
前面我们已经说过,放在网站其它目录是无效的,而且也检测不到该文件存在。
4)ftp://xxx.com/robots.txt
无效:http://xxx.com/
5)http://111.111.111.23/robots.txt
有效
http://111.111.111.23/
无效
http://xxx.com/
6)http://xxx.com:80/robots.txt
有效
http://xxx.com:80/
http://xxx.com/
无效
http://xxx.com:82/robots.txt
7)http://xxx.com:8282/robots.txt
有效
http://xxx.com:8282/
无效
http://xxx.com/
这其实有很多工具可以检测,包括目前比较流行的工具,比如爱站工具、站长工具、5118等,这些都可以检测robots协议编写是否正确。
当然如果你不愿意使用这些工具,其实在百度搜索资源学院后台也有API接口提供检测,当然前提是需要绑定给自己的网站,因此,如果你没有绑定自己的网站可以使用第三方工具。
百度后台的话,找到robots栏目点击,然后点击检测并更新,如果正确会提示没有错误。
站长工具robots检测,找到robots检测接口,输入自己的网址,然后开始点击检测。
还有5118、爱站工具也可以进行检测。具体做法相差无几。
1 robots.txt协议上传到网站哪个位置
编写robots.txt协议文件已经是非常辛苦的事情,如果后面上传错误了,那真的就白费功夫了,很多新手或一些从业者,也会犯一些比较常见的错误,所以在上传网站位置你还真得谨慎。
robots协议文件可以上传到网站某个目录下吗?
就目前而言,robots协议文件没有放到网站特定目录一说,也就是说即使你放到某特定目录文件下,也不能使得该协议文件发生任何作用。
包括谷歌、百度等搜索引擎都是不允许放在网站特定的目录下,因为这样robots协议将毫无意义。
当然有点经验的SEO优化师可能会想另辟蹊径,想让robots在网站特定目录下发生作用,而在不影响网站其它的目录,其实这用处不大,搜索引擎程序进来首先会看要没有这个文件,如果这样放,那么这跟没设置毫无区别。
因此,官方规定,robots.txt协议文件通常放在根据目录之下,这样才能起到限制搜索引擎蜘蛛的作用。
2 怎么样才算是有效的robots网址?
上传成功之后就万事大吉了吗?还没有,接下来我们先来认识一下robots网址是否有效,这对robots的认识将会加深。
1)http://xxx.com/robots.txt
有效:
http://xxx.com/
http://xxxx.com/dog/dogs
无效:
http://other.xxx.com/
https://xxx.com/
http://xxx.com:8181/
2)http://www.xxx.com/robots.txt
有效
http://www.xxx.com/
无效
http://xxx.com/
http://shop.www.xxx.com/
http://www.shop.xxx.com/
3)http://xxx.com/www/robots.txt
前面我们已经说过,放在网站其它目录是无效的,而且也检测不到该文件存在。
4)ftp://xxx.com/robots.txt
无效:http://xxx.com/
5)http://111.111.111.23/robots.txt
有效
http://111.111.111.23/
无效
http://xxx.com/
6)http://xxx.com:80/robots.txt
有效
http://xxx.com:80/
http://xxx.com/
无效
http://xxx.com:82/robots.txt
7)http://xxx.com:8282/robots.txt
有效
http://xxx.com:8282/
无效
http://xxx.com/
3 如何检测robots协议文件是否正确
这其实有很多工具可以检测,包括目前比较流行的工具,比如爱站工具、站长工具、5118等,这些都可以检测robots协议编写是否正确。
当然如果你不愿意使用这些工具,其实在百度搜索资源学院后台也有API接口提供检测,当然前提是需要绑定给自己的网站,因此,如果你没有绑定自己的网站可以使用第三方工具。
百度后台的话,找到robots栏目点击,然后点击检测并更新,如果正确会提示没有错误。
站长工具robots检测,找到robots检测接口,输入自己的网址,然后开始点击检测。
还有5118、爱站工具也可以进行检测。具体做法相差无几。
显示全部内容...