问题描述:
淘宝网为什么要加这个robots.txt文件.让百度无法搜呢?User-agent: BaiduspiderDisallow: /User-agent: baiduspiderDisallow: /
问题解答:
人家就是这样设置的嘛 不希望百度搜到他 打击百度吧
百度和淘宝谈崩了~
两家竞争啊