>  기사  >  백엔드 개발  >  禁止搜索引擎访问本站一切文件的robots.txt怎么写?

禁止搜索引擎访问本站一切文件的robots.txt怎么写?

WBOY
WBOY원래의
2016-06-23 14:14:361835검색

如果想禁止搜索引擎访问本站的一切目录和一切文件,那么是需要在目录建立一个robots.txt文件是吗?内容怎么写?


回复讨论(解决方案)

User-agent:
Disallow: /

User-agent:
Disallow: /
请问这样设置以后,连首页(根目录index.php)的内容也不会被收录了吧?

建议你看一下这篇文章  http://baike.baidu.com/view/9274458.htm?fromId=1280732

建议你看一下这篇文章  http://baike.baidu.com/view/9274458.htm?fromId=1280732
好的,谢谢!

성명:
본 글의 내용은 네티즌들의 자발적인 기여로 작성되었으며, 저작권은 원저작자에게 있습니다. 본 사이트는 이에 상응하는 법적 책임을 지지 않습니다. 표절이나 침해가 의심되는 콘텐츠를 발견한 경우 admin@php.cn으로 문의하세요.