robot里边如何屏蔽外部的链接?

比如当前robots是www.feijiu.net/robots.txt

Disallow: www.jupai.net/*   这样能实现吗

3 人参与回答
最佳回答
余小小

robots文件是屏蔽你站内的目录和链接的,如果能屏蔽外部链接,那我写个robots屏蔽所有对手的网站,那岂不是上天了

郑雄伟

毕竟大规模死链问题真的是太恶心了。


另外网站结构是这样的      

根目录web/   

          二级域名www/

         二级域名erji/

想要屏蔽www下边的内容该如何写?在web下传robots.txt,然后  Disallow: /www/   和在www下传robots.txt 然后 Disallow: /  这两种都行吗?

@HalleLuka  @余小小

HalleLuka

robot是无法屏蔽外部的链接的,主要屏蔽的是你的网站里的文件

没有更多内容了
我来回答
robot里边如何屏蔽外部的链接?
匿名回答
我要提问 我来回答