3 人参与回答
最佳回答
seo为我而存在
seo为我 · 五年专业seo顶级专业优化师,懂的都懂!
融350 等 1 人赞同该回答

抓取的页面有问题。直接Robots中写禁止访问就可以

可以查看下是不是真的蜘蛛IP nslookup ip地址 看下

禁止抓取就行了 ,你这抓的都是PHP,无关的页面

SEO培训招生中
189