| 什么是robots文件?
Robots是站点与spider沟通的重要渠道,是网站与搜索引擎爬虫之间的协议,告知哪些可抓取哪些不允许。
| 为什么要做robots文件?
网站上总有一些页面是禁止蜘蛛抓取的。例如:搜索页面、筛选页面、后台登录地址等。
| 如何制作 robots文件?
编写robots.txt文件并上传到网站根目录。
| 制作 robots.txt注意事项
● 所有搜索引擎则用星号表示
● Allow(允许)和Disallow(不允许)优先级
● 至少屏蔽一个,可以屏蔽:搜索结果页面/404页面
● 记得将sitemap放到Robots文件中
● 可以陆续放入更多,而不是一次性决定所有
● 网站后台地址/图片地址/下载文件地址/错误链接
本文的视频课程地址:https://ke.seowhy.com/play/9492.html
阅读本文的人还可以阅读:
什么是robots文件?设置搜索robots协议的后果
robots.txt文件用法举例,百度官方资料截图版
robots.txt概念和10条注意事项
Robots.txt 文件应放在哪里?
如何使用Robots避免蜘蛛黑洞?
写在结尾:以上就是robots.txt:如何让搜索引擎不要抓取没用的页面的详细内容,更多请关注【杭州SEO博客】其它相关文章!
本文地址:http://seo.youqingshuyuan.com/11496.html
版权声明:本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系我们。
本文地址:http://seo.youqingshuyuan.com/11496.html
版权声明:本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系我们。