第一,网站里的敏感信息尽量图片化,不要让360的蜘蛛抓取到,从源头上切断可能会让360误拦截域名的因素。
第二,在网站根目录增加robots.txt文件 增加这样的一行文字
disallow:/
意思是屏蔽掉所有蜘蛛的访问,当然如果你也可以只屏蔽360蜘蛛的访问
User-agent: Baiduspider
只允许百度蜘蛛抓取你的网站
第三,网页内容加密处理,让蜘蛛无法识别网站内容,可以减少被拦截的可能性,
第二,在网站根目录增加robots.txt文件 增加这样的一行文字
disallow:/
意思是屏蔽掉所有蜘蛛的访问,当然如果你也可以只屏蔽360蜘蛛的访问
User-agent: Baiduspider
只允许百度蜘蛛抓取你的网站
第三,网页内容加密处理,让蜘蛛无法识别网站内容,可以减少被拦截的可能性,
版权声明:请尊重已备案域名,域名备案,权重域名出售,快速备案域名,阿里云已备案域名,网原创内容,
如需转载网站资讯文章,请注明文章原始地址。
原文地址:/wangzhanxinwen/2019/1112/5063.html