自动秒收录

robots.txt:如何让搜索引擎不要抓取没用的页面


文章编号:320 / 更新时间:2023-04-10 / 浏览:

Robots是站点与spider沟通的重要渠道,是网站与搜索引擎爬虫之间的协议,告知哪些可抓取哪些不允许。

编写robots.txt文件并上传到网站根目录。

●所有搜索引擎则用星号表示

●Allow(允许)和Disallow(不允许)优先级

●至少屏蔽一个,可以屏蔽:搜索结果页面/404页面

●记得将sitemap放到Robots文件中

●可以陆续放入更多,而不是一次性决定所有

●网站后台地址/图片地址/下载文件地址/错误链接(搜外网)

扫描二维码推送至手机访问。

3浏览自媒体运营与推广

2浏览网站结构优化

2浏览外部链接建设

2浏览自媒体运营与推广


相关标签: Robots

本文地址:https://www.badfl.com/article/a04cf7591c80692e628c.html

上一篇:sitemap如何让搜索引擎抓取到所有页面...
下一篇:301设置一定要做的集中权重的方法...

发表评论

温馨提示

做上本站友情链接,在您站上点击一次,即可自动收录并自动排在本站第一位!
<a href="https://www.badfl.com/" target="_blank">自动秒收录</a>