robots.txt禁止访问特定目录下的部分文件怎么写?

2024-12-21 19:00:38
推荐回答(2个)
回答1:

生动的叫做“蜘蛛”

蜘蛛在爬去网站页面之前,会先去访问网站根目录下面的一个文件,就是robots.txt。这个文件其实就是给“蜘蛛”的规则,如果没有这个文件,蜘蛛会认为你的网站同意全部抓取网页。

Robots.txr文件是一个纯文本文件,可以告诉蜘蛛哪些页面可以爬取(收录),哪些页面不能爬取。

举个例子:建立一个名为robots.txt的文本文件,然后输入

User-agent: * 星号说明允许所有搜索引擎收录
Disallow: index.php? 表示不允许收录以index.php?前缀的链接,比如index.php?=865
Disallow: /tmp/ 表示不允许收录根目录下的tmp目录,包括目录下的文件,比如tmp/232.html

回答2:

不想被扫描到的,写上绝对路径,
基本上可以理解为一一对应,总之绝对路径