限制robots是否影响sitemap的更新

如果站点的robots.txt设置如下
User-agent: *
Disallow: /
在根目录下提交sitemap.xml,后台添加内容更新后,为何sitemap.xml文件内容不能自动更新?(不考虑搜索引擎收录问题)
各位,发表下己见。谢谢

追加问题
    3 人参与回答
叶景
叶景 · 欢迎参加搜外的SEO系统培训,报名微信:seowhy2018

User-agent: *
Disallow: /
这个意思是让所有的搜索引擎蜘蛛对整站不要抓取。
已经屏蔽了怎么抓取更新。

杰克船长
杰克船长 · 刘炳鑫

如果你在设置有不懂的地方 可以去百度站长工具 找到Robots的专门检测工具 他会告诉你 你的设置 是什么意思。也可以根据你想要的设置 在那上面设置出来。

刘崇喆
刘崇喆 · Come on !

的更新主要是和你的程序有关系的,和其他无关,有些程序设置的是用插件,更新内容之后会自动更新地图,有些程序是手动添加的地图,需要手动更新。