限制robots是否影响sitemap的更新

如果站点的robots.txt设置如下
User-agent: *
Disallow: /
在根目录下提交sitemap.xml,后台添加内容更新后,为何sitemap.xml文件内容不能自动更新?(不考虑搜索引擎收录问题)
各位,发表下己见。谢谢

3 人参与回答
叶景

User-agent: *
Disallow: /
这个意思是让所有的搜索引擎蜘蛛对整站不要抓取。
已经屏蔽了怎么抓取更新。

杰克船长

如果你在设置有不懂的地方 可以去百度站长工具 找到robots的专门检测工具 他会告诉你 你的设置 是什么意思。也可以根据你想要的设置 在那上面设置出来。

刘崇喆

sitemap.xml的更新主要是和你的程序有关系的,和其他无关,有些程序设置的sitemap.xml是用插件,更新内容之后会自动更新地图,有些程序是手动添加的地图,需要手动更新。

没有更多内容了
我来回答
限制robots是否影响sitemap的更新
匿名回答
我要提问 我来回答