常见的robots.txt文件用法实例
seo优化 2022-07-27 12:20www.1681989.comseo排名
常见的robots.txt文件用法实例
1、禁止所有搜索引擎抓取网站的任何部分
User-agent:
Disallow: /
这是禁止所有目录和文件被所有搜索引擎收录。网站还没上线时,有的会先屏蔽所有蜘蛛抓取。
2、允许所有的spider抓取(或者也可以建一个空的robots.txt文件)
User-agent:
Allow: /
这是允许所有搜索引擎抓取网站的任何部分,既然是允许所有文件被抓取,可以不用创建robtos.txt文件,即默认全部允许抓取。
3、禁止spider抓取特定目录
User-agent:
Disallow: /a/
Disallow: /b/
Disallow: /c/
这是禁止所有的spider抓取a、b、c目录。这个规则我们最常用到,比如网站的程序后台、程序目录等都可以禁止spider抓取,以减少spider无意义的浪费我们的空间资源。
4、禁止spider抓取搜索结果页面
User-agent:
Disallow: /so_article?
如果你网站的搜索结果页面URL格式如/so_article?keyword=搜索关键字,则按以上格式进行屏蔽,注意带了一个星号,代表屏蔽so_article?带头的所有URL。
对于大部分网站,常用的就是以上4种情况。
推火专家搜外网
网站seo
- 洛扎企业官网搭建公司:提升品牌形象与网络实
- 北京百度快照排名怎么把网站排名在百度首页
- 湖南seo网站排名关键词优化如何提升销售额和销
- 打造企业形象的利器:金塔企业官网搭建公司
- 提升平舆百度快照排名的全面指南
- 浙江企业网站优化怎样做网站排名
- 云南整站优化:提升网站价值的关键
- 西藏新手做seo怎么做发展潜力如何
- 提升扬州网站排名优化的有效策略
- 中山建站公司有哪些:全面解析与推荐
- 长寿百度关键词SEO:提升你的网站排名技巧
- 寻找优质服务的秘诀:库车会SEO的网站建设公司
- 兴义企业网站优化:提升网站可见性的策略与方
- 威海优化关键词排名推广:提升您网站流量的有
- 松原建站公司:助力企业数字化转型的最佳选择
- 罗甸企业官网搭建公司:助力企业数字化转型