怎样写robots.txt,才能不让爬虫抓取某个文件夹中的其中一个文件?

2025-02-22 21:31:32
推荐回答(1个)
回答1:

robots.txt
这只是网页开发者写的一个robots协议,我们爬虫可以遵守也可以不准守说白了只是个声明罢了
你要真要写就
User-agent: *
Disallow: 一般是接口,或者网页文本的匹配格式